| | | | |

TR10: Ingeniería de células madre

Imitando las enfermedades humanas en una placa.

CHIP que ambiciona funcionar como el cerebro

Chips de ese tipo podrían eventualmente ayudar a la comunicación entre partes corporales creadas artificialmente y el cerebro.

Una nueva vida para los neumáticos usados

300 millones de neumáticos desechados en los Estados Unidos cada año, más de la mitad terminan ya sea en vertederos o quemados...

¡La eterna juventud ya no es un mito!

Esta afirmación parece estar haciéndose realidad gracias a la introducción de nuevas técnicas de anti-envejecimiento...

TUNEL DE RUSIA A EE.UU

En una época en que los avances tecnológicos son más frecuentes que la actualización de moral y ética.

jueves, 27 de agosto de 2009

El láser más pequeño jamás construído

Investigadores han demostrado lo que es hasta ahora el láser más pequeño, que consiste de una nanopartícula de solamente 44 nanómetros de espesor. El dispositivo es llamado un “spaser” ya que genera una forma de radiación llamada plasmones de superficie. Esta técnica permite confinar luz en espacios muy reducidos, y algunos físicos creen que los “spasers” podrían ser la base de los ordenadores ópticos del futuro, al igual que los transistores son la base de la electrónica de hoy día. Mientras que los mejores equipos electrónicos de uso masivo operan a velocidades de alrededor de 10 Gigahertz, Mikhail Noginov, profesor de física en el Center for Materials Research en la Norfolk State University en Norfolk, Virginia, aclara que los dispositivos ópticos pueden operar a cientos de Tetrahertz. Los dispositivos ópticos son, sin embargo, difíciles de miniaturizar porque los fotones no se pueden confinar en áreas mucho menores que la mitad de sus longitudes de onda. Pero los dispositivos que interactúan con la luz en forma de palsmones de superficie sí los pueden confinar en espacios más reducidos. “Actualmente se está haciendo un gran esfuerzo, principalmente teórico, hacia el diseño de una nueva generación de dispositivos nano electrónicos basados en plasmónica”, dice Noginov. A diferencia de otros dispositivos plasmónicos previos, los spasers son un elemento activo que pueden producir y amplificar estas ondas. Noginov fue el co-líder en el desarrollo del nuevo spaser en conjunto con Ulrich Wiesner de Cornell University y Vladimir Shalaev y Evgenii Narimanov de Purdue University. El trabajo aparece hoy en la revista Nature. El spaser construído por Noginov y sus colaboradores consiste de una nanopartícula sencilla de solamente 44 nanómetros de diámetro, con diferentes partes que ejecutan funciones análogas a las de un láser convencional. En un láser normal, fotones rebotan entre dos espejos a través de un medio que provee ganancia el cual amplifica la luz. La luz en un spaser rebota alrededor de la superficie de una esfera de oro en el núcleo de la nanopartícula en la forma de plasmones. El reto, dice Noginov, es asegurarse que esta energía no se disipe rápidamente de la superficie del metal. Su equipo de investigación logró esto poniendo una capa de sílice incrustada con tinte sobre la parte de oro. Esta capa actúa como un medio de ganancia. La luz proveniente del spaser puede permanecer confinada como plasmons o puede hacerse que salga de la superficie de la partícula en forma de fotones en el rango de luz visible. Al igual que un láser, el spaser debe ser “bombeado” para suministrar la energía necesaria. El grupo de Noginov logra esto mediante el bombardeo de la partícula mediante pulsos de luz. El tamaño de un laser convencional está dictado por la longitud de onda que utiliza, y la distancia entre las superficies reflectivas no puede ser menor que la mitad de la longitud de onda de la luz—en el caso de la luz visible, alrededor de 200 nanómetros. La “belleza” de los spasers es que obvian esta limitación mediante el uso de plasmones, dice Noginov. Los Spasers probablemente podrían llegar a tener una longitud de un nanómetro. Cualquier intento de hacerlo más pequeño que eso, explica Noginov, podría romper la funcionalidad de las nanopartículas en el dispositivo. Noginov y sus colaboradores no son los primeros en fabricar un nanoláser. En este mes de julio, investigadores lidereados por Cun-Zheng Ning, profesor de ingeniería eléctrica de Arizona State University, y Martin Hill de Eindhoven University en Holanda crearon un nanoláser de alrededor de 100 nanómetros de ancho, utilizando diferentes materiales. El nanoláser de Ning y Hill fue el primero en superar las limitaciones de longitud de onda en el tamaño de los lásers. El trabajo publicado hoy, si embargo, es el primer ejemplo de un spaser. “El spaser trabaja alrededor de mil veces más rápido que el transistor más rápido, mientras posee el mismo tamaño de nanoescala”, dice Mark Stockman, professor de física en Georgia State University. “Esto abre las posibilidades de construir amplificadores ultra rápidos, elementos lógicos, y microprocesadores que trabajen mil veces más rápido que microprocesadores convencionales a base de silicón”. Stockman predijo el phaser en el año 2003, en conjunto con David Bergman, professor de física de la Universidad de Tel Aviv en Israel. La creación del spaser, dice Bergman, “es una hermosa pieza de trabajo”. Los spasers probablemente tendrán su primera aplicación no en ordenadores ópticos, sino en lugares donde los lásers convencionales se utilizan hoy en día, dice Noginov. De hecho, “una aplicación más cercana está en la industria de almacenamiento de datos magnéticamente”. Dice Sakhrat Khizroev, professor de ingeniería eléctrica en University of California, Riverside, que también está desarrollando nanolásers. Los medios de almacenamiento magnético de datos utilizado hoy en día para los discos duros de hoy en día están alcanzando sus límites físicos; una manera de extender sus capacidades es la de calentar el medio con diminutos puntos de luz durante el proceso de grabación, lo que podría hacerse con nanolásers, dice Khizroev. Sin embargo, los investigadores advierten que cualquier aplicación está probablemente aún a años de implementarse.

Un mejor catalizador de gas a metanol

Un catalizador mejorado podría reducir los costes de producción del metanol a partir del metano. Un nuevo catalizador para convertir el metano, el componente principal del gas, en combustible líquido—metanol—acaba de ser desarrollado por un equipo de investigadores en Alemania. El catalizador podría hacer que la conversión directa de metano a metanol fuera más económica de lo que resulta con los catalizadores actuales, aunque probablemente no acabe siendo el santo grial de la química de hidrocarburos—un catalizador que permita que el gas natural reemplace a los combustibles de petróleo a gran escala. En nuevo catalizador está basado en uno de los pocos catalizadores que convierten el metano directamente en metanol, a bajas temperaturas, sin producir mucho dióxido de carbono u otros productos no deseados. Ese primer catalizador, desarrollado por Roy Periana, en la actualidad profesor de química en el Instituto de Investigación Scripps (EE.UU.), resultó ser demasiado caro como para ser comercializado. El nuevo catalizador, descrito en la versión online de la revista Angewandte Chemie, ha “solucionado uno de los principales problemas del catalizador de Periana,” afirma Ferdi Schüth, director del Instituto Max Plack de Investigación de Carbón, y que dirigió el estudio. El catalizador de Periana es un líquido que se disuelve en ácido sulfúrico, lo que lo hace muy difícil de reciclar, un problema serio puesto que el catalizador necesita platino, un material muy caro. El nuevo catalizador es sólido, afirma Schüth, por lo que es mucho más fácil de reciclar gracias a que se puede extraer del ácido sulfúrico con el simple uso de unos filtros. Schüth afirma que el descubrimiento del catalizador sólido fue “por casualidad”. Sus colegas habían desarrollado un polímero con una estructura molecular que él reconoció como similar a la del catalizador de Periana. Fue capaz de incorporar el platino a esa estructura y demostró que el catalizador sólido resultante tenía un rendimiento igual de bueno que el de la versión líquida. Los combustibles basados en metano podrían ser significantemente más limpios que los de petróleo. Es más, las provisiones de gas natural son enormes, y en la actualidad se está accediendo a nuevas fuentes gracias a las nuevas técnicas de taladrado, con lo que potencialmente podríamos tener a nuestra disposición una enorme cantidad en forma de hidratos de metano en el fondo del océano. Sin embargo, y puesto que se trata de un gas, el metano es más caro de transportar y menos cómodo para su uso en vehículos que los combustibles líquidos, y por ahora los métodos químicos para convertirlo en líquido han resultado muy costosos. Aunque el nuevo catalizador soluciona uno de los problemas del catalizador de Periana, “esto no supone ni mucho menos el mayor problema,” afirma Jay Labinger, miembro asociado de química en Caltech. De hecho, Periana afirma que el desarrollo de una versión sólida de su catalizador no será suficiente como para empezar a comercializarlo. Él está trabajando en unos nuevos catalizadores que utilizan mecanismos similares pero con materiales más baratos y efectivos. Los dos problemas principales son típicos de los catalizadores experimentales—no funcionan lo suficientemente rápido, lo que incrementa el tamaño y el coste del equipo necesario, y no producen concentraciones lo suficientemente altas del producto deseado, lo que hace que separar el producto de los otros componentes químicos sea caro. Labinger estima que las cuotas del nuevo catalizador alemán deben incrementarse bastante, y Periana señala que las concentraciones deben aumentar de tres a cinco veces. Sin embargo, Periana sugiere que el catalizador alemán quizá ofrezca una nueva dirección dentro de las investigaciones, especialmente si los mecanismos involucrados en la producción de metanol son distintos de su catalizador líquido. De hecho, Schüth afirma que uno de los componentes principales del catalizador de Periana, el cloro, no está necesariamente en la nueva forma, lo que sugiere que podría funcionar de forma distinta. Mientras tanto, también están desarrollando unos catalizadores que utilizan distintos materiales. Uno resulta muy prometedor, afirma, puesto que produce metanol a cuotas dos veces más altas que el catalizador líquido de Periana.

martes, 25 de agosto de 2009

Un dispositivo que monitorea su sueño

Si usted me hubiera preguntado esta mañana cuantas veces me desperté anoche, le hubiera respondido que quizás cuatro o cinco. Pero de acuerdo con el Zeo, un nuevo dispositivo electrónico que monitoriza el sueño de una persona, fue la preocupante cantidad de 15 veces. También estoy consiguiendo considerablemente menos sueño de lo que pensaba, promediando entre seis y siete horas en vez de entre siete y ocho como yo siempre había estimado. El Zeo Personal Sleep Coach, que fue desarrollado por una empresa con base en Newton, Estados Unidos, es el primer dispositivo para uso casero que permite al usuario monitorizar sus patrones de sueño a través del tiempo. Con un sencillo sistema receptor y de toma de datos en forma de banda de cabeza, este dispositivo representa una bonita hazaña de la ingeniería. Y ciertamente parece responder a un gran interés—todo el mundo al que le hablé sobre el Zeo me dijo que le gustaría probarlo, una prueba de nuestra obsesión con el sueño. Todavía no está claro que este dispositivo realmente ayudará a los usuarios a mejorar la calidad de cómo duermen, pero puede representar una nueva oportunidad para la investigación sobre el sueño, permitiendo a los científicos monitorizar la variabilidad normal en el sueño de una manera mucho más económica y en mucho mayor escala que antes. En esencia, el Zeo es una versión simplificada y automatizada de la tecnología que se utiliza para estudiar los patrones de sueño de los pacientes que acuden a las clínicas de sueño. (Aún así, la compañía es cuidadosa y afirma que el equipo Zeo no es un dispositivo médico y que no puede diagnosticar desórdenes en el sueño). Mientras duermen, los pacientes utilizan una banda de cabeza que tiene sensores que detectan y miden las señales eléctricas del cerebro. Esta información se transmite inalámbricamente a un monitor, parecido a un reloj despertador, que se coloca al lado de la cama. A la mañana siguiente, el monitor da un resumen de la noche previa de sueño, incluyendo por cuánto tiempo el usuario ha dormido, cuantas veces se ha despertado, y la cantidad de tiempo transcurrido en cada etapa del sueño. La información se almacena en una pequeña tarjeta de memoria contenida dentro del monitor; esta información puede después transferirse a una computadora y a su vez cargarse a un sitio web que monitorea las tendencias y patrones de sueño del usuario a través del tiempo. “Yo lo veo más como un equipo que ofrece un reporte o información, como por ejemplo un monitor de presión sanguínea o una balanza, para monitorizar nuestra fisiología”, dice Phyllis Zee, un científico del sueño en la Universidad Northwestern de Chicago, y que también es un científico asesor de la compañía. “El sueño es realmente un signo vital”. Una pila cada vez mayor de resultados de investigaciones enfatiza la importancia crucial del sueño, ligándolo a todo desde la memoria hasta la obesidad. Una noche típica de sueño envuelve un ciclo repetitivo de sueño ligero seguido por un sueño profundo—o de ondas lentas, seguido después por el sueño de movimiento rápido de los ojos (REM por sus siglas en inglés)—en esta etapa es que soñamos. Estas fases se mantienen repitiéndose, la duración de cada etapa se va haciendo cada vez más corta a medida que la noche avanza. “La duración y el número de estos ciclos son indicativos de la calidad del sueño”, dice Michael Twery, director del National Center on Sleep Disorders Research (Centro Nacional de Investigación de Desórdenes del Sueño), que es parte del Instituto Nacional de Salud en Maryland, Estados Unidos. Aunque la compañía no va a divulgar detalles específicos acerca de su tecnología, la mayor innovación radica en el sensor del Zeo y en el algoritmo que se utiliza para procesar la información almacenada. En los laboratorios y clínicas del sueño, la actividad cerebral se colecta por medio de un número de electrodos colocados en la cabeza del paciente, una técnica conocida como electroencefalografía (EEG por sus siglas en inglés). Puesto que este enfoque es altamente susceptible al ruido, los electrodos deben colocarse en puntos precisos para la óptima colección de señales, y un gel conductor se aplica en la piel para mejorar la transmisión de las señales. Los investigadores en Zeo han desarrollado una novedosa tecnología utilizando electrodos de tejidos secos recubiertos de plata que se acomodan en la frente del usuario (la frente usualmente no se considera un buen punto para colectar señales de EEG). Un algoritmo desarrollado utilizando el análisis neural de redes procesa las desordenadas señales eléctricas colectadas por el sensor, e inmediatamente determina la etapa de sueño en la que se encuentra el usuario. (En un laboratorio del sueño, usualmente un técnico observa las señales eléctricas crudas y determina en qué etapa del sueño se encuentra el paciente). “El algoritmo está diseñado para imitar lo que un técnico experto en sueño reportaría del sueño de un paciente”, dice John Shambroom, vicepresidente de investigación en Zeo. Comparaciones de Zeo con la técnica tradicional que utiliza a un técnico para dar puntuaciones en polisomnografía , EEG y otras mediciones utilizadas en un laboratorio del sueño; demuestran que ambos métodos daban resultados similares en personas saludables, dice John Shambroom. Sueño profundo: Los usuarios pueden cargar los patrones de sueño a un sitio web que monitorea y analiza los datos y envía correos electrónicos con sugerencias para mejorar el sueño. En esta gráfica se muestra el sueño profundo de un usuario a lo largo de una semana. Fuente: Zeo Mi propio patrón de sueño está un poco desbalanceado. Consigo suficiente sueño REM—aproximadamente 25 por ciento--pero no suficiente sueño profundo—alrededor de 10 por ciento en vez del promedio de 20 por ciento que se considera apto. El sueño profundo –o de onda lenta—la etapa del sueño de la que es más difícil despertarse—ha sido relacionado con algunos tipos de memoria, y un estudio reciente sugiere que la falta de sueño profundo podría afectar la sensibilidad a la insulina, un factor de riesgo para la diabetes tipo II. Una cerveza nocturna no pareció tener ningún efecto en mis patrones de sueño, pero una píldora para dormir de benzodiacepina si lo tuvo. Tal y como se predice por investigaciones previas, la píldora bajó el porcentaje de mi sueño profundo aún más, hasta 5 por ciento. “El sueño es más activo y dinámico de lo que la gente cree”, dice Shambroom. “Esto le permite a usted entender su sensibilidad personal a la cafeína y al alcohol”. (Siendo yo una persona altamente sensible a la cafeína, no arriesgué un latte vespertino, ni si quiera por el bien de la ciencia). No está claro para mí exactamente qué significa esto, probablemente me alejaré de ese tipo de píldoras para dormir. Pero los expertos con los que hablé estaban dudosos en hacer comentarios en cuanto a qué significaba para mi salud mi espectro de patrones de sueño, posiblemente porque el propósito de cada tipo de sueño—de hecho, el propósito del sueño en general—es sumamente discutido aún hoy en día. (Hay algunas maneras de aumentar específicamente el sueño de onda lenta; aumentando la temperatura corporal es una de ellas). La mayoría de los consejos de Zeo se centran en recomendaciones bien conocidas para la “higiene del sueño”, tales como evitar la cafeína, el alcohol y actividades estimulantes justo antes del sueño. (Declaración: yo utilicé el dispositivo solo por unas cuantas noches, no lo suficiente como para probar los programas de entrenamiento y consejería en línea que viene con el sistema. Este programa envía correos electrónicos a los usuarios con consejos basados en sus datos individuales de sueño). “Realmente, la prueba final es cómo usted se siente durante el día”, dice Zee, de la Universidad Northwestern. Como se comentó anteriormente, Zeo enfatiza que el dispositivo no está concebido para utilizarse como un dispositivo médico. No puede, por ejemplo, diagnosticar la apnea del sueño, el desorden del sueño más común que existe; o desórdenes como movimientos periódicos del limbo y apoplejías durante el sueño. Sin embargo algunos piensan que a esta advertencia no se le presta mucha atención. “Si usted sufre de insomnio convencional, el Zeo estaría bien”, dice Jerome Siegel, director del Laboratorio de investigación del sueño de la Universidad de California en Los Angeles. “Confirmaría que usted sufre de insomnio y proveería una forma de cuantificar y validar sus patrones de sueño mientras usted hace las cosas convencionales para tratarlo”. Pero el problema más general, dice “es que las personas que tienen los desórdenes de sueño más severos no los detectarán con este dispositivo, y entonces ellos no irán a ver a sus médicos para obtener un diagnóstico”. Siegel y otros, sin embargo, están interesados en el potencial de Zeo para fines de investigación. Mientras que los científicos del sueño han investigado numerosos aspectos del mismo—incluyendo los efectos del uso de drogas, de la edad, y de enfermedades como la depresión—estos estudios son sumamente costosos (una noche en un laboratorio del sueño cuesta aproximadamente 1.000 dólares). Un dispositivo relativamente barato de uso casero permitiría a los investigadores observar la variabilidad de los patrones normales del sueño en un número mayor de personas. “Es fácil de usar, práctico, y puede monitorearse diariamente”, dice Zee. “Esa ha sido una limitante en el campo—recolectar datos de sueño día tras día”. Mientras que un laboratorio provee de información del sueño mucho más detallada, el Zeo podría proveer de una forma para el estudio de patrones del sueño normativos, como variaciones estacionales, agrega Siegel. “Es sumamente interesante”, dice. “Todo un conjunto de cosas que hubieran sido prohibitivamente caras ahora son sumamente prácticas”.

El reciclaje de baterías de litio obtiene impulso

El Departamento de Energía de los EE.UU. financia una compañía que recicla baterías de vehículos eléctricos. El Departamento de Energía de los EE.UU. (D.O.E.) ha otorgado 9,5 millones de dólares a una compañía de California que planifica construir la primera planta de EE.UU. para el reciclaje de baterías de iones de litio de vehículos eléctricos. Toxco, con base en la ciudad de Anaheim, dice que utilizará los fondos para expandir unas instalaciones existentes en Lancaster, Ohio (EE.UU), que actualmente recicla baterías de ácido y plomo y de hidruros de níquel que son usadas hoy en día en los vehículos híbridos eléctricos. Actualmente hay poca necesidad económica de reciclar baterías de iones de litio. Muchas baterías contienen sólo pequeñas cantidades, en peso, de carbonato de litio y el material es relativamente barato comparado con la mayoría de los metales restantes. Pero algunos expertos consideran que tener infraestructura para el reciclaje apaciguará algunas preocupaciones que, en caso adoptar vehículos que usen baterías de iones de litio, alertan sobre la escasez del carbonato de litio y la dependencia de países como China, Rusia y Bolivia, quienes controlan el grueso de las reservas globales de litio. "Ahora mismo el reciclaje de litio apenas paga, pero si la demanda aumenta y existen grandes oferentes de material usado, la situación puede cambiar," dijo Linda Gaines, una investigadora del Centro de Investigación y Desarrollo en Tecnología del Transporte del Laboratorio Nacional de Argonne. La ayuda otorgada por el DOE a Toxco puede parecer escasa —la semana pasada el DOE otorgó un total de 2.400 millones de dólares a compañías que desarrollan baterías y sistemas para vehículos eléctricos— pero lo cierto es que el proyecto se encuentra aún en su fase temprana. La venta de vehículos híbridos eléctricos y de vehículos eléctricos todavía no ha despegado y, aunque el Presidente Barack Obama ha prometido tener un millón de vehículos híbridos eléctricos en las carreteras de los EE.UU. para el 2015, es probable que transcurra una década antes de que se requiera una capacidad de reciclaje a gran escala. Sin embargo, el demostrar la capacidad para reciclar, será clave para demostrar que los vehículos eléctricos son realmente “verdes”—tanto porque que su operación es libre de emisiones como porque son sostenibles en su diseño. "El manejo de estas baterías debe realizarse de manera ambientalmente responsable y de forma económica," dice Todd Coy, vice presidente ejecutivo de Kinsbursky Brothers, la compañía padre de Toxco. Toxco tiene cierta ventaja sobre aquellas compañías nuevas en el mercado. La compañía ya es líder en el reciclaje de baterías en Norte América y ha estado reciclando baterías de litio de carga sencilla y recargables usadas en los artefactos electrónicos y en aplicaciones industriales desde 1992 en sus instalaciones canadienses en Trail, Columbia Británica. "Ya estamos manejando el grueso de las baterías desde allí," dice Coy. Las facilidades en Trail son también las únicas en el mundo que pueden manejar diferentes tamaños y químicas de baterías de litio. Cuando las baterías viejas llegan son enviadas al molido y son trituradas, permitiendo que con los componentes hechos de aluminio, cobre y acero puedan ser separados fácilmente. Las baterías más grandes que aún pudieran contener cargas eléctricas son congeladas criogénicamente con nitrógeno líquido antes de ser trituradas; a -325 grados Fahrenheit, la reactividad de las celdas se reduce a cero. El litio es entonces extraído inundando las cámaras de la batería en un baño cáustico que disuelve las sales de litio, que son filtradas y usadas para producir carbonato de litio. El lodo remanente es procesado para recuperar el cobalto, que es usado para hacer los electrodos de la batería. Alrededor de un 95 por ciento del proceso es completamente automatizado. La subvención del DOE ayudara a Toxco a transferir el proceso de reciclaje de Trail a sus operaciones en Ohio, sentando la base para una planta avanzada de reciclaje de baterías de litio que pueda expandirse para ajustarse al crecimiento proyectado en el mercado de vehículos eléctricos en los EE.UU. El fabricante de coches eléctricos Tesla Motors, al igual que la mayoría de los principales fabricantes, ya envía paquetes de baterías viejas o defectuosas a las facilidades de Toxco en Trail para su reciclaje. "Es muy importante para nosotros," dice Kurt Kelty, director de tecnologías para almacenamiento de energía en Tesla. "El reciclaje es un asunto clave y necesitamos hacerlo de forma correcta." Pero Kelty dice que la ecuación económica del reciclaje depende mayormente de la química utilizada en las baterías de iones de litio. Añade que el litio es actualmente uno de los metales de menor valor. Por ejemplo, el litio en un paquete de baterías del Tesla Roadster representaría alrededor de $140 de un sistema cuyo coste de reemplazo es de $36.000. Para muchas baterías de iones de litio, el litio representa menos de un 3 por ciento de los costes de producción. "La parte del litio es realmente un costo despreciable comparado con otros metales: níquel, cobalto, estos van a ser los grandes impulsores [del reciclaje]," dice Kelty, añadiendo que Tesla actualmente hace dinero reciclando solamente los otros componentes reciclables (sin litio) de sus baterías." Así que mientras hemos estado leyendo artículos sobre cómo la industria se quedará sin litio, hemos perdido totalmente el punto importante del asunto. Aún existe mucho litio." Los estimados varían, pero el cobalto se vende en el mercado por alrededor de 20 dólares por libra, comparado con 3 dólares por libra de carbonato de litio. El cobalto, un subproducto de la minería de níquel y cobre, es también escaso y la mitad de las reservas mundiales provienen de la Republica Democrática del Congo, una región políticamente inestable. Algunas químicas de iones de litio son menos coste-efectivas para el reciclaje. Por ejemplo, las baterías de fosfato de hierro-litio producidas por los sistemas A123 no tienen un buen rendimiento en el reciclaje. Los materiales menos costosos en las baterías A123 le proveen a la compañía una ventaja sobre los competidores, pero también hace sus baterías menos económicas para ser recicladas. La situación del litio podría cambiar. La compañía consultora en investigaciones industrial Tru Group dice que la recesión global ha llevado a un gran excedente de litio en el mercado, manteniendo los precios bajos. La consultora, sin embargo, espera que para el año 2013, la oferta y demanda estará balanceada otra vez y que el problema de abastecimiento puede ocurrir después del 2017. En el largo plazo, algunos observadores creen que la introducción en masa de los vehículos eléctricos e híbridos, combinado con el hecho de que muchas de las reservas de litio se encuentran en países extranjeros y potencialmente no amistosos, puede llevar a un gran ascenso en el precio del carbonato de litio. La preocupación es que eventualmente terminemos comercializando “crudo pico” por “litio pico”. Gaines esta siguiendo de cerca el asunto de la escasez. Ella está supervisando un proyecto de cuatro años en Argonne que evaluará la demanda de materiales de las baterías de iones de litio y la infraestructura para el reciclaje en el largo plazo. Gaines dice que la investigación hasta el momento demuestra que la demanda puede ser cubierta hasta el 2050, aún si las ventas de los vehículos crecen dramáticamente. Pero el reciclaje va a ser crucial para ayudar a los EE.UU. a ser menos dependiente de las fuentes extranjeras de litio. "Nosotros demostramos que el reciclaje puede aliviar potenciales tensiones en el suministro," dice ella.

Aumenta la seguridad de Android

La plataforma abierta ofrece un nuevo método para controlar la seguridad. Google entró en el mercado de los teléfonos móviles con fuerza, prometiendo que el sistema operativo Android estaría abierto de par en par de cara a los desarrolladores. Esto se diferenciaba del enfoque tradicional—los operadores de teléfono en los Estados Unidos normalmente ejercitan un control férreo sobre qué software se pude ejecutar en sus dispositivos. El popular iPhone de Apple, aunque de reciente entrada, no ha sido una excepción. Apple mantiene alejados ciertos aspectos del aparato frente a las aplicaciones de terceros, y tiene que aprobar todas las aplicaciones que se venden a través de su mercado. Sin embargo, a medida que los teléfonos se asemejan más los ordenadores de sobremesa, se exponen a los mismos riesgos que abundan en internet. Para asegurar el éxito de Android, Google tuvo que enfocar la seguridad de los teléfonos móviles desde un punto de vista nuevo. Rich Cannings, Director de Seguridad de Android en Google, habló esta semana en la Conferencia sobre Seguridad Usenix en Montreal, Québec, en relación al diseño de la compañía. Siempre existe un frágil equilibrio entre ser abiertos y ser seguros, afirma Cannings. “Yo podría fabricar el teléfono móvil más seguro, pero nadie lo usaría.” Un teléfono móvil realmente seguro no podría acceder internet, afirma, e incluso no podría enviar mensajes de texto o recibir llamadas. En vez de eliminar todos los riesgos y, por tanto, eliminar todas las características, el enfoque de Google consiste en minimizar lo que son capaces de hacer los atacantes a la hora de acceder al teléfono. A la búsqueda de inspiración, Google puso su atención en la web, señala Cannings. Las aplicaciones web están protegidas por la “misma política de origen,” que bajo circunstancias normales evita que una página web intercambie información con otra web abierta por el usuario. Para traducir este tipo de método al sistema operativo, afirma Cannings, la compañía trató cada aplicación como si fuera un usuario distinto del dispositivo. Cuando múltiples usuarios comparten un mismo equipo de sobremesa, el sistema operativo está diseñado para protegerlos unos de otros y darles a cada uno su propia cuenta. Desde una cuenta no es posible ver archivos en otras cuentas, o afectar los datos de otro usuario. De igual modo, el sistema operativo Android trata cada aplicación como si fuera un usuario distinto, por lo que si un atacante entra en el navegador web, por ejemplo, no será capaz de acceder la libreta de direcciones. Sin embargo, el mero hecho de separar cada aplicación no era lo suficientemente seguro. No hay razón, por ejemplo, para que una aplicación como el Pac-Man tenga que acceder a internet, afirma Cannings. Por tanto, el equipo de seguridad de Android limitó el acceso de cada aplicación al teléfono a no ser que le pida permiso al usuario. Es aquí donde se toparon con otro reto. “La mayoría de los humanos no son buenos a la hora de analizar riesgos desconocidos,” afirma. Cuando los usuarios tienen que manejar su propia seguridad, a menudo se vuelven insensibles a los riesgos y hacen clic en la palabra “OK” cada vez que una ventana de diálogo les alerta de un problema. Android está diseñado para preguntar una vez, cuando la aplicación está siendo instalada. También muestra al usuario sólo las alertas más importantes, y ofrece la opción de ver la lista completa. Android no sólo proporciona seguridad a las aplicaciones. El equipo también puso su atención en pequeños trozos de software que normalmente son puntos de entrada comunes para los atacantes. Por ejemplo, afirma Cannings, el software que se encarga de ejectuar el audio y el video en los navegadores web, es muy complejo y suele ser un objetivo común. En Android, ese tipo de software se ejecuta de forma independiente al navegador y en un servidos de medios distinto, por lo que si su seguridad resulta comprometida el atacante será incapaz de acceder a las palabras clave o a las cookies almacenadas en el navegador. Charlie Miller, investigador de seguridad en Independent Security Evaluators y que ha encontrado e informado acerca de varios fallos en el software dentro de la plataforma Android, afirma que la técnica de Google para colocar cada aplicación de Android de forma separada puede que realmente resulte efectiva. Por ejemplo, Miller encontró un error en el software que utiliza Android para ejecutar mp3s, pero descubrió que el acceso a esta parte del teléfono no le proporcionaba acceso a otras aplicaciones del teléfono. Sin embargo, Miller cree que Google se basa demasiado en este método para su protección. “Es un buen sistema de seguridad, pero en mi opinión deberían existir más capas,” afirma. Un atacante podría encontrar fallos en el sistema operativo que le permitiesen traspasar las paredes entre las aplicaciones, lo que crearía fallos de software entre los programas de medios que serían tan peligrosos como los de antes, afirma. Miller añade que los sistemas como el del iPhone evitan que las aplicaciones no autorizadas ejecuten código. El sistema de Google, por otro lado, permite que se ejecute cualquier tipo de código, lo que hace que el atacante tenga más herramientas a su lado. Finalmente, Miller afirma que “Google se enfrenta a este otro obstáculo: ellos fabrican el sistema operativo, pero no controlan el teléfono.” La primera vez que se detecto un fallo en Android, Miller notificó a google y la compañía puso un parche en el código fuente de Android ese mismo día. Esta solución, sin embargo, no protegió a los teléfonos que ya estaban en uso. “Básicamente estaban a merced de T-Mobile [que en la actualidad ofrece los teléfonos Android a la venta en EE.UU.] para que el parche se distribuyese y se instalase en todos los teléfonos del mundo,” afirma Miller. Aunque algunos vendedores podrían responder bien ante los problemas de seguridad de sus teléfonos, él cree que otros quizá decidirían no sacar los parches jamás. Cannings señala que cuando se encuentra un error, Google manda una notificación a los proveedores—actualmente 32 compañías en 21 países—y trabaja para ofrecerles tests de las soluciones que propone. Cuando las compañías operadoras se sienten satisfechas, envían el parche a los consumidores. Ningún producto es jamás del todo seguro, señala Cannings, aunque Google está trabajando para preparar a Android antes los ataques de malware que inevitablemente se darán a medida que los smartphones se hagan más populares.

sábado, 22 de agosto de 2009

Un reactor nuclear lunar Experimentos prueban la factibilidad de utilizar reactores nucleares para proveer electricidad en la luna y Marte.

Investigadores de la NASA y del Departamento de Energía de los Estados Unidos probaron recientemente tecnologías clave para el desarrollo de un reactor nuclear de fisión que podría proveer de energía a estaciones con asentamientos humanos en la luna o Marte. Las pruebas demostraron que las agencias podrían construir un sistema “seguro, confiable y eficiente” para el año 2020, el mismo año en que la NASA ha programado retornar humanos a la luna. Un reactor de fisión opera mediante la división de átomos, con la subsecuente liberación de energía en forma de calor, la cual es convertida posteriormente en electricidad. La idea de la utilización de energía nuclear en el espacio data de finales de los años 1950, cuando fue considerada para proveer de energía de propulsión a través del Proyecto Orión. En los años 1960, una serie de reactores nucleares espaciales compactos, experimentales, fueron desarrollados por la NASA bajo el programa Systems Nuclear Auxiliary Power. Sin embargo, preocupaciones relacionadas con seguridad pública, además de un tratado internacional que prohibía el uso de energía nuclear en el espacio, detuvieron el desarrollo de esta tecnología para su uso en el espacio. En la actualidad la energía nuclear está siendo nuevamente considerada para misiones a Marte y la luna porque, a diferencia de otras fuentes alternativas de energía como la solar, la energía nuclear puede proveer de energía constante; una necesidad requerida para sistemas de soporte de vida humana, para recargar vehículos de transporte en superficie, y para operaciones de minería en búsqueda de recursos. Sistemas de energía solar requerirían de también el uso de dispositivos de almacenamiento de energía, tales como baterías, o celdas de potencia, lo cual añadirían más masa de la que se quisiera para el sistema. El uso de energía solar está aún más limitado ya que la luna está a oscuras hasta 14 días en un lugar dado y tiene cráteres profundos que pueden ocultar la luz del sol. Por otro lado, Marte está mucho más lejos del sol que la Tierra o la luna, por lo tanto, hay menos energía solar que puede utilizarse allí. El nuevo sistema de energía nuclear es parte de un proyecto de la NASA que empezó en el año 2006 llamado Fission Surface Power que examina pequeños reactores diseñados para utilizarse en otros planetas. A pesar de que la energía nuclear sigue siendo controversial, los investigadores dicen que el reactor se diseñaría para ser completamente seguro y se enterraría a una distancia segura de los astronautas para aislarlos de cualquier radiación que pudiera generarse. Pruebas recientes examinaron tecnologías que utilizan un reactor nuclear acoplado a un motor Stirling capaz de producir 40 kilowatts de energía—suficientes para dotar de energía a un futuro puesto o base espacial en la luna o Marte. “No estamos construyendo un sistema que necesita cientos de gigawatts de energía como aquellos que producen electricidad para nuestras ciudades”, declara Don Palac, el gerente del proyecto en el Glenn Research Center de la NASA en Cleveland, Ohio. El sistema necesita ser barato, seguro y robusto y “nuestras pruebas más recientes demostraron que podeos construir exitosamente eso”, dice Palac. Para generar electricidad los investigadores utilizaron un metal líquido para transferir calor del reactor al motor Stirling, este motor utiliza presión de gas para convertir el calor en la energía necesaria para generar electricidad. Para las pruebas los investigadores utilizaron una fuente de calor no nuclear. El metal líquido consistía de una mezcla de sodio y potasio, esta mezcla se ha utilizado en el pasado para transferir calor de un reactor a un generador, dice Palac, pero esta es la primera vez que la mezcla se ha utilizado con un motor Stirling. “Son muy eficientes y robustos, y pensamos que pueden durar 8 años sin atenderlos” dice Lee Mason, el investigador principal del proyecto en Glenn. El sistema operó mejor de lo que se esperaba, dice Palac, generando 2,3 kilowatts de energía de manera constante. Los investigadores también desarrollaron un panel de radiadores liviano para enfriar el sistema y disipar el calor del reactor. El panel prototipo es de aproximadamente seis pies por nueve pies- una veinteava parte el tamaño requerido para un sistema de escala completa. El calor del sistema de enfriamiento por agua se hace circular por el radiador en el que se disipa. Los investigadores probaron el panel de radiadores en una cámara de vacío en Glenn que replica la falta de atmósfera y temperaturas extremas en la luna—de más de 100 grados Celsius durante el día hasta 100 grados Celsius bajo cero en la noche. El panel disipó 6 killowatts de energía, más de lo esperado—una prueba “muy exitosa”, dice Palac. En la luna, el panel también debe sobrevivir el ambiente polvoriento ocasionado por el regolito. Finalmente, los investigadores probaron el funcionamiento del alternador Stirling en un ambiente radiactivo en el Sandia National Laboratories en Alburquerque, Nuevo México. El objetivo era probar el funcionamiento del motor asegurándose que los materiales no se degradarían. El alternador se sometió a 20 veces la cantidad de radiación que se esperaría recibiera en su vida útil y sobrevivió sin ningún problema significativo. Mason dice que las pruebas son muy importantes para mostrar la factibilidad del sistema y que el siguiente paso para los investigadores es llevar a cabo una demostración de un sistema a escala completa, mediante la combinación de un reactor simulador no nuclear con el motor Stirling y el panel de radiadores. Mason dice que estas pruebas deberán ser completadas en el año 2014. Los investigadores también están trabajando en la transmisión de potencia y en la electrónica del sistema. “Una base lunar necesita mucha energía para cosas tales como ordenadores, sistemas de soporte de vida, y para calentar rocas para conseguir recursos tales como oxígeno e hidrógeno”, dice Ross Radel, un miembro superior del personal técnico y miembro del grupo de conceptos nucleares avanzados en Sandia. El grupo está trabajando en el análisis dinámico del sistema, un modelo de ordenador que predice como funcionará el reactor durante las pruebas. “La energía nuclear es una roca de apoyo para movernos hacia adelante en nuestra exploración tripulada del espacio”, dice Radel. “Es un proyecto fascinante y el único método posible de proveer de energía para un viaje tripulado a Marte”, dice Daniel Hollenbach, un investigador en la división de ciencias y tecnologías nucleares en el Oak Ridge National Laboratory, que no estaba involucrado en el proyecto. Mason dice que la fisión nuclear es uno de un número de conceptos que se están probando como fuente de energía para misiones tripuladas hacia la luna y Marte, y si es seleccionada, Mason dice que la tecnología podría utilizarse para el año 2020.

Un banco de ADN guarda registro genético de 1.500 especies en Colombia

A temperaturas que llegan a 196 grados bajo cero, un banco de ADN creado por la fundación colombiana Humboldt guarda registros genéticos de 1.536 especies en un proyecto que busca perpetuar la biodiversidad genética de uno de los países con mayor número de animales y plantas del mundo. La muestra contiene el ADN de animales y plantas en peligro de extinción recopiladas desde 1998, explica la bióloga Diana López, directora de la investigación y responsable del almacenaje en un laboratorio ubicado cerca de Cali, a 550 km al suroeste de Bogotá. Las muestras de los tejidos son almacenadas en recipientes que utilizan nitrógeno líquido y que constituyen una de las colecciones de ADN más amplias del mundo y la tercera en América Latina, en donde solo existen bancos similares en Brasil y Argentina. "Se guardan los tejidos de los cuales se pueda extraer ADN de buena calidad y cantidad. Su fin es aportar al estudio de la biodiversidad nacional desde una perspectiva genética y evolutiva", señala López. "Estas muestras de ADN permiten estudiar una especie si llega a desaparecer", explica la bióloga. Incluso, eventualmente en el futuro, podrían llegar a utilizarse para clonar especies, aseguró.

jueves, 20 de agosto de 2009

La Nasa lanzará transbordador Discovery el 25 de agosto

El transbordador Discovery con siete astronautas a bordo será lanzado hacia la Estación espacial internacional (ISS) el martes 25 de agosto, anunciaron los responsables de la misión en una conferencia de prensa el miércoles. El lanzamiento está previsto a la 01H36 de la mañana (05H36 GMT) desde el centro espacial Kennedy, cerca de Cabo Cañaveral en Florida (sudeste de Estados Unidos). La decisión fue tomada en el segundo día de una reunión de los responsables de la misión. "Creo que estamos listos para volar", dijo en la conferencia de prensa Bill Gerstenmaier, director adjunto de la agencia espacial estadounidense para operaciones espaciales. "Las discusiones tuvieron que ver sobre todo con el asunto (de las pérdidas) de espuma aislante del tanque de combustible externo y el ajustado análisis de los datos recabados", precisó John Shannon, director del programa del transbordador. Pequeños fragmentos de espuma se desprendieron del tanque de combustible externo del transbordador en los últimos dos lanzamientos. La Nasa quería asegurarse de que el tanque usado por Discovery no presentaba las mismas debilidades. La misión de 13 días del transbordador Discovery tiene como objetivo entregar víveres y materiales a la Estación espacial, además de un nuevo compartimento para dormir, una cinta para realizar ejercicio y equipamiento para estudios científicos. Será el cuarto vuelo de transbordador este año, de cinco previstos. Luego de esta misión quedarán solo seis vuelos de transbordador antes del retiro previsto de los tres transbordadores de la flota (Endeavour, Discovery y Atlantis), previsto para setiembre de 2010. Agencia AFP

Robots con piel, lo último de lo último

Como si de una película de la saga Terminator se tratase, varios investigadores de la Universidad de Tokyo han logrado crear la llamada e-skin, una piel sintética y electrónica que según sus desarrolladores permite a los robots “sentir”. Japón es sin duda uno de los países más implicados en temas de robótica, y sus constantes novedades nos hacen creer que quizás algún día tengamos la fortuna (o desgracia) de poder ver hechos realidad los sueños de algunos directores de cine y novelistas. Los robots parecen cada vez más versátiles, y ahora varios ingenieros han logrado desarrollar un tejido que trata de permitir emular el sentido del tacto para que los robots dispongan de esta capacidad. El tejido se compone de nanotubos de carbono que permiten que la “piel” conduzca electricidad incluso cuando el tejido es estrujado. Con la ayuda de sensores, este tipo de tejido permite detectar cambios en la temperatura o la presión. Las aplicaciones van más allá de la robótica, desde luego, pero la idea es como mínimo… inquietante.

Combatiendo la Gripe Estomacal con Tabaco

Los científicos ponen su atención en plantas de tabaco para conseguir una vacuna para el norovirus. Las plantas de tabaco han sido alistadas como bioreactores para hacer lo que los científicos esperan se convierta en la primera vacuna para el norovirus, la causa de muchos brotes de intoxicación por alimentos y de la temible enfermedad invernal que ocasiona vómitos. Gracias a un sistema de producción --que combina bacterias, virus, y plantas-- para fabricar rápidamente grandes cantidades de vacuna, investigadores de la Universidad del Estado de Arizona, en Estados Unidos, y de la compañía de biotecnología Vaxx, indican que tienen una forma rápida, económica y confiable de combatir patógenos que cambian rápidamente, como el norovirus. Con aproximadamente 23 millones a 74 millones de casos anuales en los EE.UU., se cree que el norovirus es la segunda causa más común de enfermedades infecciosas después de la gripe. Más aún, como el gripe, este virus tiene la habilidad de producir nuevas cepas cada uno o dos años, lo que dificulta el desarrollar una vacuna. El proceso de desarrollo de una vacuna es largo y costoso. Realizar este proceso para combatir un virus no letal y que cambia rápidamente, presenta un alto riesgo financiero para las compañías, dice Charles Arntzen, uno de los investigadores principales del proyecto, quien presentó el trabajo en la reunión otoñal del American Chemical Society, este año en Washington, D.C. "Con este virus, es poco factible que el gobierno [de los EE.UU] emita un mandato de vacunación, dado que esto representa más un inconveniente que una amenaza de muerte para la gente, y por lo tanto hablamos de un mercado no garantizado”, dijo. La tecnología usada por Arntzen y sus colegas explota el hecho de que resulta más económico cultivar plantas, y se está sujeto a menos regulaciones si se compara con los sistemas para el desarrollo de vacunas basado en animales. Existen menos regulaciones porque los patógenos desarrollados en plantas no son peligrosos para los humanos. El nuevo enfoque cubre también un número de contratiempos que, en el pasado, han retrasado el desarrollo de vacunas derivadas de plantas. Particularmente, el tiempo que toma el producir una planta transgénica a la cual se le pueda extraer suficientes proteínas para la vacuna, y la dificultad de procesar las plantas de forma que se pueda obtener una vacuna estable y en la dosis precisa. Para superar el primer reto, los investigadores desarrollaron un sistema de tres pasos que permite una producción más rápida de proteínas foráneas en las plantas. Primero, los genes que contienen el código de las proteínas son transformados a través de la ingeniería en versiones inactivas de un virus que ataca la planta, en este caso el virus mosaico de tabaco (TMV, por sus siglas en inglés). Dado que el TMV usa el ARN en lugar del ADN como material genético --aunque la manipulación genética en el laboratorio se realiza en ADN-- el segundo paso es engañar a la bacteria que puede infectar al tabaco para que produzca una versión de ADN del virus junto con los genes de la vacuna. En el paso tres, copias del ARN de los genes virales se producen dentro de las células infectadas de la planta y secuestran su maquinaria bioquímica para hacer copias de la proteína deseada. "Entre 5 días a 2 semanas, la planta de tabaco muere, pero al ocurrir esto, está produciendo cantidades masivas de nuestra proteína, hasta un gramo por kilo de biomasa", dice Arntzen. Mario Pezotti de la Universidad de Verona en Italia, dice que el trabajo de Arntzen "demuestra que se pueden acelerar los sistemas de producción de cualquier vacuna y especialmente para aquellos virus que cambian rápidamente." El segundo reto principal para hacer la vacuna de la planta ha sido el desarrollar un producto final que reúna los estándares farmacéuticos, dice Carole Cramer, director ejecutivo del Arkansas Biosciences Institute en la Universidad del Estado de Arkansas en Jonesboro, Estados Unidos. El objetivo de las investigaciones tempranas fue el producir vacunas comestibles que pudieran permitir una entrega segura y económica en países en desarrollo en donde las facilidades para el almacenamiento de inyecciones de proteína purificadas que necesitan refrigeración son limitadas. Aunque las patatas, tomates y arroz transgénicos pueden producir moléculas que funcionen para la vacuna, incluyendo aquellas que son efectivas para el norovirus, "el no tener dosis completamente controladas ha sido un reto, especialmente en la medicina occidental” dice Cane. "Cualquier producto viable debe estar completamente purificado y dosificado en forma precisa para entrega --como por ejemplo, los atomizadores nasales" dice ella. La alta producción de biomasa del tabaco en combinación con las tecnologías de extracción asequibles adaptadas de la industria de alimentos hacen que Arntzen confíe en que la vacuna contra el norovirus puede producirse a costos muy bajos. Él anticipa que pruebas clínicas comenzarán en los comienzos del 2010. "La preocupación actual sobre la gripe porcina demuestra que el mundo necesita vacunas producidas con rapidez y bajos costos, y aquí es donde los productos hechos en base a plantas como la vacuna del norovirus tienen un alto potencial" dice Pezotti. Yuri Gleba del Nomad Bioscience en Munich, Alemania, quien inicialmente desarrolló el sistema de los tres pasos para infectar la planta usado en el proyecto del norovirus, ha probado el mismo proceso en más de 50 proteínas de relevancia farmacéutica. Gleba cree que el enfoque puede convertirse en una herramienta efectiva en cualquier parte donde se requiera una rápida producción de las proteínas. "Analizando el bioterrorismo, por ejemplo, dicho sistema en plantas puede utilizarse para cultivar compuestos de forma económica con anticipación al problema, [dejando] sólo los pasos más costosos del final del proceso para cuando exista la emergencia". fuente. technologyreview

miércoles, 19 de agosto de 2009

Nuevas toallitas para prevenir el SIDA

* Se crean para practicar el sexo oral. * Fabricadas en látex, no reducen la sensibilidad. * Su coste es inferior a un euro. Nacen las primeras toallitas para practicar sexo oral y hacer frente a las enfermedades de transmisión sexual, según informó el programa de temática homosexual Pink TV. Con el nombre de Oral Face, la empresa Medintim S.L. ha comenzado a distribuir en nuestro país estas nuevas toallitas fabricadas en látex y recomendadas para la práctica del sexo oral. Por menos de un euro, los consumidores podrán estar más prevenidos contra el sida y otras enfermedades venéreas y no perderán las sensaciones de placer, ya que el producto es una pequeña banda que se adapta a todos los orificios. Más de 30.000 personas con VIH y sin saberlo Esta nueva iniciativa surge para reducir las polémicas estadísticas que aseguraron, a principios de mes, que entre 30.000 y 40.000 personas en España no saben que están infectadas con el virus. Esto impide, a su vez, que adopten las medidas de prevención adecuadas cuando tienen relaciones sexuales. La transmisión sexual del VIH se reduciría en más de un 30% cada año si todas las personas infectadas conocieran su situación y adoptasen medidas preventivas con la misma frecuencia que lo hacen los enfermos ya diagnosticados. Fuente. www.20minutos.es

lunes, 17 de agosto de 2009

Lo ultimo en computación portátil

MIRA ESTE EQUIPO LO ULTIMO EN COMPUTACION , CON LA MAS ALTA TECNOLOGIA.

nuevo celular de google

Este primer móvil está equipado con el sistema operativo Android; que fue creado especialmente por la empresa para competir en el mercado de la telefonía movil. El HTC Dream fue presentado por Google en una conferencia en Londres en la que demostraron todas las facilidades que poseen frente a otras plataformas de la competencia. Este teléfono será el que marcará la historia de la empresa ya que es el móvil con el que por primera vez se muestra el sistema operativo que competirá en el mercado de la telefonía móvil. Según información conocida hasta el momento, el HTC tendrá una pantalla de 480 x 320 píxeles y 3.17 pulgadas, (más grande que la del iPhone). También tiene una cámara de 3.1 megapíxeles. Además se conoció que tendrá conectividad por cuatribanda GSM, UMTS, HSDPA, SUPL, 802.11 b/g, GPS y Bluetooth 2.0. HTC Dream tiene un procesador Qualcomm 7201 de 528 MHz. Tiene 64 MB RAM y una memoria interna de 128 MB ROM, con posibilidad de ampliarla con una tarjeta microSD de un giga. Por otro lado, para quienes piensan que un teléfono que navegue en internet necesita un teclado QWERTY en este teléfono se oculta bajo la pantalla, que se desliza cuando se necesite escribir. Google integrará servicios como el correo Gmail, la agenda de Calendar, YouTube y la posibilidad de ver los mapas de Google Street Maps. Algunos medios norteamericanos recibieron este miércoles invitaciones para asistir a la rueda de prensa que realizará el operador T-Mobileen la que se presentará el equipo que saldrá al mercado en el mes de octubre. Según afirmó el diario estadounidense The Wall Street Journal el móvil costará en EE.UU. 199 dólares para competir con el iPhone, de Apple, que tiene el mismo precio. Este evento se realizará el próximo martes, pero Google no dejó la primicia para esta ocasión y en Londres mostró el nuevo equipo sin ninguna señal comprometedora de algún operador. Este móvil tiene en vilo a gran parte del mercado celulares ya que Android es un sistema operativo abierto que varios analistas no creen que sea mejor que el del iPhone.

Sobrevivir al cáncer en la infancia puede tener un impacto en el embarazo

Las mujeres que fueron sometidas a radioterapia para tratar un cáncer durante la infancia presentan un riesgo mayor de tener bebés prematuros o bajos de peso, según un estudio de la Universidad de Birmingham (Reino Unido) conocido. La investigación se realizó a partir de los datos de 10.000 mujeres que fueron sometidas a radioterapia cuando eran niñas y demuestra también un riesgo mayor de aborto espontáneo en las mujeres que recibieron el tratamiento en el abdomen. Sin embargo, no se constató relación entre la quimioterapia y la evolución del embarazo, según los datos publicados en la revista "Cancer, Epidemiology, Biomakers and Prevention". Según el estudio, los casos de partos prematuros de mujeres que recibieron radioterapia se triplicaban con respecto a los del conjunto de la población, mientras que la proporción de bebés nacidos por debajo del peso normal era de 2 a 1. En cuanto a los abortos espontáneos, se comprobó que había un 40 por ciento más entre las mujeres sometidas a radiación y que no había una incidencia mayor en las mujeres que sufrieron cáncer cerebral y que, por tanto, sólo tuvieron ese órgano expuesto al tratamiento. La investigación no ofrece una conclusión definitiva sobre la relación entre el tratamiento y los problemas en el embarazo, pero apunta que la radioterapia reduce el tamaño del útero y reduce la cantidad de sangre que llega hasta la matriz durante la gestación. En líneas generales, los investigadores de la Universidad de Birmingham comprobaron además que las supervivientes de un cáncer infantil tienen un 30 por ciento menos de hijos, un porcentaje que sube hasta el 50 por ciento entre quienes recibieron radioterapia. Tampoco hay nexo de unión científico entre estos hechos, pero el estudio apunta diversas razones: que las mujeres que recibieron radioterapia de niñas tienen antes la menopausia, que encuentran más difícil encontrar pareja y que están preocupadas por el efecto que el tratamiento pudiera tener en la salud de su descendencia. El director de la investigación, el profesor Raoul Reulen, subrayó que lo que este estudio aporta principalmente es la necesidad de que "las mujeres que hayan pasado por esta situación y quieran quedarse embarazadas tengan en cuenta el tratamiento que recibieron y que hablen de ello con su médico". "Si fueron sometidas a una alta dosis de radiación abdominal y quieren quedarse embarazadas deberían ser tratadas por un especialista", recomendó Reulen. Como dato positivo, el profesor destacó que las conclusiones de este trabajo son una buena noticia "para otras supervivientes, como las que recibieron quimioterapia", ya que pueden tener la seguridad de que "no hay pruebas de que resulte en un embarazo adverso". Fuente. SOCIEDAD-SALUD

domingo, 16 de agosto de 2009

La obesidad no solo es fruto del sedentarismo y el exceso de comida, hay otros males que engordan

En esta epidemia, que según la OMS afecta a unas 1.600 millones de personas, se incuban males crónicos como la diabetes, las enfermedades cardiovasculares, la hipertensión y algunos cánceres. Distintos grupos de investigación de todo el mundo que estudian este fenómeno han establecido en los últimos años que este no sólo es fruto del consumo excesivo de calorías y del sedentarismo. Las siguientes son seis de las llamadas nuevas causas de la obesidad. Contagiosa Una investigación de la Escuela de Medicina de Harvard y la Universidad de California, divulgada en el 2007 por el 'New England Journal of Medicine', sugirió que cuando una persona sube de peso, aumenta considerablemente la posibilidad de que sus amigos, hermanos y cónyuges también engorden. Y cuanto más estrecho sea el contacto social entre dos personas, mayores son las posibilidades de que 'contraigan' la tendencia a engordar. Según los expertos, si una persona tiene un amigo obeso, la posibilidad de que esta suba de peso aumenta en un 57 por ciento, mientras que entre hermanos es del 40 por ciento y entre cónyuges del 37 por ciento. Infecciosa Algunas investigaciones indican que la obesidad puede ser una enfermedad infecciosa, causada por bacterias. Un estudio hecho en Boston (Estados Unidos), publicado en 'Journal of Dental Research', comprobó que todas las mujeres obesas que participaron en él tenían una bacteria en la boca (la selenomas noxia, una de las causantes de la periodontitis) que las mujeres en su peso no poseían. Los científicos advierten que todavía no es claro si este agente es causante de la obesidad o producto de ella, pero insisten en que este hallazgo no puede ignorarse. Trastornos mentales Con el propósito de confirmar la relación entre la obesidad y la depresión, investigadores del Center por Health Studies (Seattle, Estados Unidos) sometieron a análisis la información de salud recogida de entrevistas hechas a más de nueve mil estadounidenses. Su estudio, publicado a mediados del 2006 en 'Archives of General Psychiatry', reportó que los obesos, en comparación con los voluntarios de la investigación que no lo eran, tenían 25 por ciento más de probabilidades de tener depresión o un trastorno de ansiedad. Falta de sueño De acuerdo con la Encuesta Nacional de Nutrición y Salud de Estados Unidos, aquellas personas que duermen menos de siete horas suelen tener una masa corporal superior a la de la gente que duerme más. Al parecer, la falta de sueño alteraría el metabolismo: hace caer la leptina (hormona que indica la saciedad) y eleva la grelina (hormona que estimula el hambre). El 'Estudio de las enfermeras', que siguió a 68 mil mujeres norteamericanas durante 16 años, encontró que las que dormían en promedio cinco horas por noche ganaron más peso que aquellas que dormían seis, quienes a su vez subieron más de peso que aquellas que dormían siete horas. Medicamentos Algunos fármacos, de acuerdo con investigadores, favorecen el aumento de peso: con los neurolépticos (usados para tratar la psicosis), por ejemplo, se puede subir cuatro kilos en las primeras 10 semanas. Algo similar ocurre con los antidepresivos, los anticonvulsivantes para tratar la epilepsia, los antihipertensivos y la insulina en personas con diabetes. También se sabe que el uso de ciertos anticonceptivos, durante varios años conlleva aumento de peso. Embarazo La posibilidad de convertirse en obeso puede estar determinada antes de haber nacido. Diversos estudios muestran que los hijos de madres obesas tienen muchas más posibilidades de ser gordos. Aunque hay un factor genético, también existe evidencia de una cierta "programación fetal", en la que las condiciones (sobre todo restricciones de alimento) en el vientre materno pueden llevar a la obesidad con los años. Asimismo, tener muchos hijos aumenta las oportunidades de subir de peso si no se cuidan. El cirujano e investigador Attila Csendes, de la Universidad de Chile, explica que esta "es una causa frecuente de obesidad femenina antes de los 30 años. Hay mujeres que entre el primer y el segundo embarazo suben hasta 30 kilos y no los bajan".

fuente.www.eltiempo.com

sábado, 15 de agosto de 2009

Avances en la detección de cáncer de pecho

Nueva sonda detecta la propagación del cáncer de pecho Según un artículo publicado el 11 de marzo de 2007 en Medical News Today, Audrius Brazdeikis, profesor ayudante de física del College of Natural Sciences and Mathematics de la Universidad de Houston, y Quentin Pankhurst, profesor de física del University College of London (UCL), han desarrollado un nuevo procedimiento de detección que combina la nanotecnología y la detección magnética avanzada basada en superconductores de alta temperatura. Su innovación permitirá a los cirujanos localizar con mayor eficacia el nódulo linfático centinela –el primero al que se drenarán las células metastásicas de un tumor. Los investigadores han fabricado una sonda magnética ultrasensible que permite detectar minúsculos campos magnéticos en el cuerpo a modo de magnetómetro (instrumento utilizado para seguir la presencia de nanopartículas magnéticas introducidas clínicamente. Durante la operación de cáncer de pecho, el cirujano inyectará en el tumor o en los tejidos colindantes un tinte de nanopartículas magnéticas, aprobado como agente de contraste por la FDA. Un cirujano sostiene la sonda, que incorpora dos sets of coils conectados a un sensor. Un set of coils magnetiza las partículas y el otro detecta la respuesta magnética de dichas partículas. El sensor, conocido como HTS SQUID (o dispositivo superconductor de interferencias cuánticas a alta temperatura), se coloca en un vaso criogénico y se sumerge en nitrógeno líquido, lo que lo enfría a 77º K, el equivalente a -320,5º F. El sistema utiliza dispositivos electrónicos con especificaciones especiales y un ordenador portátil con un programa que proporciona al cirujano feedback visual y de audio mientras realiza el seguimiento de las nanopartículas en le interior del cuerpo. Tras recibir una beca del Ministerio de Comercio e Industria del Reino Unido de 250.000 dólares para investigar desde el 2004 al 2006 dentro del marco de la iniciativa de colaboración en biociencia conocida como UK-Texas Bioscience Collaboration Initiative, Brazdeikis y Pankhurst tuvieron que construir un dispositivo y demostrar que funcionaba. A partir de entonces, un comité ético del Reino Unido ha aprobado el uso de este procedimiento de detección en un ensayo clínico de mujeres que se someterán a una operación de cáncer de pecho en el University College Hospital, de Londres. El Dr. Michael Douek, cirujano especializado en cirujía de pecho y profesor del UCL, está supervisando el ensayo. Según Douek, que hace poco que visitó Houston para preparar el ensayo, el comité ético ha autorizado el uso de la sonda en 10 operaciones, cifra que se podría ampliar a 100 tras revisar los resultados de las 10 primeras. Los investigadores esperan iniciar también ensayos clínicos en Japón y Europa antes de finales del 2007. La práctica actual requiere que el paciente con cáncer de pecho reciba dos inyecciones, una de un isótopo radioactivo y otra de un tinte azul, durante el preoperatorio (de 8 a 12 horas antes de la operación), siendo necesaria habitualmente la hospitalización la noche anterior a la operación. Posteriormente, en el quirófano, el cirujano utiliza una sonda gamma de mano para localizar, mediante la observación del tinte, el nódulo linfático con el nivel más elevado de radioactividad. La nueva tecnología, en cambio, permite al cirujano administrar una sola inyección, la del tinte magnético, que tarda apenas unos 10-15 minutos en hacer efecto; y elimina la necesidad de un profesional de medicina nuclear para inyectar el material radioactivo. De este modo, no es necesaria la hospitalización del paciente mientras espera y se evita una exposición innecesaria del paciente y el cirujano a la radioactividad. Según sus desarrolladores, esta tecnología se podría utilizar en la estadificación y tratamiento de otros cánceres, incluido el de pulmón y el de próstata, pero adaptando el instrumento a cada tipo de cirugía.

Fuente: Medical News Today

Una nueva enzima que previene el cáncer

Crean un modelo de una enzima que previene el cáncer y estudian su funcionamiento martes, mayo 15, 2007 Una nueva enzima que previene el cáncer Crean un modelo de una enzima que previene el cáncer y estudian su funcionamiento Según un artículo publicado esta semana en ScienceDaily.com, la prolina deshidrogenasa desempeña un papel importante en la apoptosis, proceso de muerte celular, permitiendo la formación de superóxido, una especie del oxígeno rica en electrones y altamente reactiva. El superóxido participa en la destrucción de células dañadas y, por tanto, es importante para evitar el desarrollo y propagación del cáncer. La proteína prolina deshidrogenasa "se abre para permitir que el oxígeno ‘robe’ electrones" y dar lugar a un superóxido, señala a la revista Tommi A. White , estudiante de doctorado en bioquímica en la Universidad de Missouri-Columbia (MU). White trabajó con John J. Tanner, profesor de química y bioquímica en el College of Arts and Science de la MU, con Navasona Krishnan, estudiante de doctorado de la Universidad de Nebraska-Lincoln, y con Donald F. Becker, profesor asociado de la Universidad de Nebraska-Lincoln, para crear el primer modelo de prolina deshidrogenasa. Puesto que no es fácil trabajar con la forma humana de esta enzima, el equipo estudió la prolina deshidrogenasa de la bacteria Thermus thermophilus. Utilizaron estudios bioquímicos y bioinformáticos, para demostrar que esta enzima es funcionalmente similar a la humana y, por tanto, los resultados obtenidos se podrían generalizar para ambas versiones de la enzima. Por medio de análisis bioquímicos y de cristalografía de rayos X, el equipo creo un modelo de prolina deshidrogenasa capaz de proporcionar a los científicos más información acerca de la estructura de la molécula y sus funciones. Según Tanner, esta proteína es importante para la prevención del cáncer porque permite la creación de superóxido, una especie que interviene en la muerte celular, el proceso en el que se suelen destruir las células dañadas o enfermas. "Nuestra estructura nos muestra cómo accede el oxígeno a los electrones almacenados en la enzima. Creemos haber identificado una puerta que se abre para permitir el acceso del oxígeno al interior de la enzima donde se encuentran almacenados los electrones", señala Tanner en declaraciones ofrecidas por Science Daily. Tanner y White esperan continuar el estudio de la prolina deshidrogenasa y de las moléculas que pueden desactivarla. También planean examinar otra proteína que sospechan colabora con la prolina deshidrogenasa, para entender de qué modo dicha proteína puede influir en la capacidad de la prolina deshidrogenasa para prevenir el cáncer.

Fuente: Science Daily

Comienza a rodar en Colombia el primer auto movido por etanol de yuca

Comienza a rodar en Colombia el primer auto movido por etanol de yuca Un automóvil que funciona con etanol de yuca, el primero de su tipo en Colombia, comenzó a rodar en el departamento del Valle del Cauca, donde están en marcha varios proyectos para desarrollar usos diversos de ese tipo de biocombustible. El vehículo es solo una de las diferentes iniciativas que ha puesto en marcha en el Valle del Cauca el Consorcio Latinoamericano y del Caribe de Apoyo a la Investigación y al Desarrollo de la Yuca (Clayuca), explicó hoy a Efe su director ejecutivo, Bernardo Ospina. El objetivo es convertir a la yuca "en un cultivo más competitivo, más eficiente con el medio ambiente", indicó Ospina. La investigación para que viera la luz ese primer vehículo movido por etanol de yuca se ha hecho en colaboración con el Centro Internacional de Agricultura Tropical (CIAT), que está situado en la localidad de Palmira y es el más importante del mundo en fríjol, yuca y pastos tropicales. Gracias a eso, "hemos tenido acceso" al banco de germoplasma del CIAT, donde hay "más de 7.000 variedades de yuca", detalló Ospina. Agregó que también se ha construido en la zona una planta piloto para generar "etanol hidratado de yuca", que contiene un poco de agua, es más barato y permitirá que los pequeños productores puedan participar "en la revolución de los biocombustibles". Ese etanol a base de yuca se está empleando además para generar energía eléctrica, que abastece a varias comunidades de la región. Por cada litro de etanol que se produce, hay otros "cinco o seis" litros de residuos que se procesan y se transforman en alimento para los animales, comentó Ospina. EFE

jueves, 13 de agosto de 2009

MEGA CONSTRUCCIONES/ La Ciudad en el Cielo de Tokio

Alojaría 35.000 residentes y albergaría 100.000 trabajadores, estudiantes y visitantes. Esta ciudad de la era del espacio en el cielo podría sonar a ciencia ficción pero responde algunas preguntas acerca de dónde podrían vivir los seres humanos cuando nuestras ciudades con mayor cantidad de gente se vuelvan aún más densamente pobladas.

Viviendas del futuro.

Viviendas del futuro. Con el paso de los años la forma de construir viviendas ha cambiado de manera impresionante, incorporando manifestaciones artísticas, uso de tecnologías, y otras adaptaciones modernas las cuales van en consonancia con la evolución del ser humano. Debido a esta evolución los seres humanos se han planteado diversas formas de relacionarse con el medio ambiente, sin dañarlo, con este fin surgieron las ecoarquitecturas. Las ecoarquitecturas intentan desarrollar proyectos afectando en el menor grado posible el medio ambiente. Mediante optimizar los recursos energéticos en la construcción y mantenimiento de las viviendas, utilizando materiales locales, adaptando su diseño al clima y consumiendo poca energía e intentando que esta energía sea lo más renovable posible. En Castilla-La Mancha, debido a su ubicación geográfica y energética es posible desarrollar formas de energía limpias y no contaminantes aplicadas a la construcción, ya que desde hace tiempo en esta región se utilizan formas de energía eolica a través de molinos de viento. La Consejería de Obras Públicas ha incluido en su tercer Plan de Vivienda de forma experimental, la construcción de 271 casas bioclimática repartidas en toda Castilla La Mancha: 30 viviendas en Albacete, 15 en Corral de Calatrava, 54 en Tarancón ,112 en Guadalajara y 60 en Toledo. El objetivo de las viviendas bioclimáticas es mejorar la calidad de vida de sus moradores, satisfaciendo sus necesidades y su estilo de vida sin sacrificar la naturaleza. Estas viviendas se fundamentan en los principios de sostenibilidad y equilibrio medioambiental e incluyen tecnología, con el fin de facilitar la existencia y comodidad de sus moradores. Las casas del futuro deberán integrarse al medio ambiente con el fin de conseguir un ambiente acogedor en su interior y lograr una disminución del consumo energético sin originar contaminación ni residuos en el medio ambiente. Otra forma de preservar el medio ambiente para lograr un desarrollo sostenible es el reciclaje organizado y racional de basuras y aguas. [ Equipo arquitectura y construcción de ARQHYS.com ]

miércoles, 12 de agosto de 2009

Nanocables que se comportan como células

Los transistores con membranas grasas podrían usarse para crear mejores interfaces para prótesis neuronales. Un grupo de investigadores del Laboratorio Nacional Lawrence Livermore ha logrado sellar transistores de nanocables de silicio en una membrana similar a las que rodean a las células biológicas. Estos dispositivos híbridos, que operan de forma similar a las células nerviosas, podrían utilizarse para crear mejores interfaces para miembros prostéticos e implantes cocleares. También podrían funcionar bien como biosensores para diagnósticos médicos. La comunicación biológica es sofisticada y a día de hoy sigue siendo algo que los aparatos electrónicos no son capaces de emular, puesto que dependen de campos eléctricos y corrientes. Las células en el cuerpo humano utilizan muchas formas de comunicación adicionales, tales como hormonas, neurotransmisores, e iones como el calcio. El nexo de la comunicación biológica es la membrana celular, una doble capa de moléculas grasas con proteínas que actúan como guardianes y llevan a cabo los primeros pasos en los procesos de señales biológicas. Aleksandr Noy, químico en el laboratorio nacional, puso una membrana celular a los nanocables de silicio con la esperanza de poder construir mejores dispositivos bioelectrónicos. “Si somos capaces de hacer que los dispositivos microelectrónicos modernos se comuniquen con los organismos vivos, podremos construir prótesis más eficientes o nuevos tipos de biosensores para su uso en diagnósticos médicos,” afirma Noy. Por ejemplo, si los electrodos que conectasen un dispositivo prostético con el sistema nervioso pudieran leer las señales químicas en vez de sólo las eléctricas, la persona que llevase puesta la prótesis podría tener un mejor control sobre ella.

Fuente: Technology Review

Terapia de radiación para objetivos en movimiento

Un grupo de investigadores ha combinado dos aparatos para hacer seguimientos en tiempo de real de los tumores y así poder realizar el tratamiento. Los tejidos normales a menudo se ven afectados durante las terapias de radiación. Los mismos haces de radiación de alta energía utilizados para matar el tejido de los tumores también acaban provocando daños—particularmente cuando la respiración del paciente hace que el tumor se mueva. Para poder hacer un mejor seguimiento de la posición del tumor en tiempo real y ajustar la radiación, un grupo de investigadores de la Universidad de Alberta en Canadá han combinado un acelerador lineal con un equipo de imágenes por resonancia magnética. Hoy, en la reunión anual de la Asociación Americana de Físicos en Medicina celebrada en Anaheim, California, los investigadores presentarán evidencias de un dispositivo que combina estas tecnologías y es capaz de seguir e irradiar a un objetivo en movimiento. La terapia de radiación utiliza los rayos x de alta energía provenientes de un acelerador lineal médico para así dañar el tejido del tumor y tratar prácticamente todos los tipos de cáncer. En los Estados Unidos, la mitad de todos los pacientes con cáncer reciben esta forma de tratamiento, que normalmente requiere de 10 a 15 sesiones con duraciones de entre 15 y 30 minutos cada una. Para poder asegurarse de que todo el tumor está irradiado, los doctores tienen que irradiar un margen de tejido sano alrededor del tumor, lo que provoca efectos secundarios tales como nauseas, dolor y daños en los tejidos de la piel. Entre sesión y sesión, el tejido sano se regenera, aunque el del tumor no lo hace. Una forma de minimizar los efectos secundarios consiste en reducir la dosis de la radiación e incrementar el número de sesiones, hasta a veces llegar a las 35. “Nos gustaría reducir los márgenes e incrementar la dosis de la radiación, para así poder controlar mejor el tumor sin efectos secundarios,” afirma Gino Fallone, director de la división de física médica del departamento de oncología de la Universidad de Alberta. Otro reto viene dado por el hecho de que el tumor se mueve durante el tratamiento. Los tumores en los pulmones y en la próstata pueden llegar a moverse hasta dos centímetros durante el tratamiento. La radioterapia actual afronta este reto mediante la combinación de una fuente de radiación con un TAC. Esto ayuda a los doctores a reducir el daño producido en el tejido sano, aunque los escáneres TAC no funcionan muy bien a la hora de mostrar los tejidos de tumor blandos, y son demasiado lentos como para hacer un seguimiento del movimiento del tumor en tiempo real. El grupo de Fallone ha decidido utilizar las imágenes de resonancia magnética (IRM), que proporcionan imágenes definidas del tejido blando de los tumores, con la esperanza de mejorar el procedimiento. Hasta ahora no ha sido posible utilizar las IRM para guiar las radioterapias. Esto se debe a que las máquinas de IRM y los aceleradores lineales que proporcionan los rayos x de alta energía para la radioterapia interfieren entre sí. Las IRM utilizan un imán de mucha potencia y unos pulsos de ondas de radio frecuencia para estimular los protones que se encuentran en el agua de las moléculas dentro de los tejidos blandos y poder leer sus señales. Los aceleradores lineales médicos también utilizan pulsos de radio frecuencia, en su caso para poder acelerar los electrones a través de una guía de onda hacia el objetivo de metal. Cuando los electrones alcanzan el objetivo, los rayos x de alta energía salen por el otro lado; después estos rayos x son dirigidos hacia el tejido del tumor. Si las dos máquinas se encuentran en la misma habitación, el campo magnético del IRM interfiere con la guía de onda, evitando que los electrones puedan ser acelerados, y los pulsos de radio frecuencia del acelerador lineal interfieren con el campo magnético del equipo de IRM, degradando la calidad de la imagen. Para combinar estas tecnologías, los investigadores de Alberta tuvieron que rediseñar ambos componentes. “Toda la máquina está diseñada de forma distinta,” afirma Fallone. Se utiliza un escudo especial. Y en vez de utilizar un campo magnético de alta potencia generado por bobinas de cable superconductor, tal y como ocurre con los aparatos de IRM clínicos, esta máquina utiliza un imán permanente débil. El imán débil interfiere mucho menos con el acelerador y es más pequeño y económico. En diciembre, el grupo de Fallone publicó los resultados de los estudios sobre generación de imágenes, demostrando que se pueden generar imágenes de resonancia magnética y utilizar el acelerador lineal sin que ambos aparatos interfieran. Sin embargo, el imán débil crea otro tipo de problema: la calidad de la imagen es mucho menor. Por tanto, los investigadores de la Universidad de Stanford están trabajando en una serie de métodos informáticos para general la información necesaria a partir de estas imágenes de baja resolución. “El diagnóstico con IRM requiere una alta calidad de imagen, pero para la radioterapia no es necesario poder ver el tumor con todo detalle,” afirma Amit Sawant, instructor de oncología de radiación en la Escuela de Medicina de Stanford. “Nos podemos permitir perder la señal de imagen, y aún así obtener la suficiente información como para saber cuándo se está moviendo el tumor.” Lo importante durante la radioterapia, señala Fallone, es poder ver los bordes del tumor. Fallone y Sawant presentarán los resultados iniciales de los estudios de seguimiento de imágenes, llevados a cabo con el prototipo de dispositivos combinados, durante una conferencia en Anaheim. El grupo de Sawant hará una descripción de un software de captación de imágenes que permite a la máquina tomar cinco imágenes de resonancia magnética de dos dimensiones por segundo—mucho más rápido que el IRM convencional. Los investigadores de Stanford lograron aumentar la velocidad de las imágenes mediante la reducción del área de imagen y la utilización de una técnica denominada como de detección por compresión. Una vez que se almacenan las imágenes, se desechan alrededor de un 90 por ciento de los datos; mediante la detección por compresión, para empezar, es posible adquirir únicamente ese 10 por ciento de datos importantes. Fallone presentará los resultados y demostrará que este tipo de guía en tiempo real se puede utilizar para redirigir el haz de rayos x del prototipo. “Hasta ahora, para la guía de imágenes sólo disponíamos de los TAC,” señala Bhadrasain Vikram, jefe de la división oncológica de radiación clínica de Programa de Investigación sobre la Radiación del Instituto Nacional contra el Cáncer. “Nos alegra saber que las IRM están disponibles y que se pueden utilizar para obtener información más precisa.” Un mejor tipo de guía durante las sesiones de radioterapia, señala Vikram, puede que acelere los tratamientos o incluso “cure algunos cánceres que hoy día no se pueden curar.” Sin embargo, antes de que el sistema se pueda poner a prueba en pacientes, los investigadores advierten que el proceso de adquisición de imágenes necesita acelerarse aún más, para que se puedan generar imágenes en 3-D. El dispositivo también se tiene que poner a prueba en animales. Fallone cree que las pruebas en humanos no comenzarán hasta al menos cinco años.

Por Katherine Bourzac

Fuente: Technology Review

Energía termosolar mas barato

Energía termosolar mas barato Una empresa estadounidense llamada Stirling Energy Systems (SES) ha disminuido la complejidad y el coste de su tecnología para convertir el calor de la luz solar en electricidad, permitiendo una producción de gran volumen. La compañía empezará a construir plantas de energía solar de gran tamaño que utilicen su equipo antes del próximo año. Actualmente, la compañía está construyendo una planta de demostración de 60 unidades y 1,5 megavatios que utilizará el último diseño de la compañía. Stirling espera acabar ese proyecto a finales de año. También tiene contratos con dos fábricas californianas para abastecer un total de 800 megavatios de energía solar a Carolina del Sur. La primera de las plantas que abastecerá esta energía se podría empezar a construir a mediados del año que viene, dependiendo de los permisos del gobierno y los avales del Ministerio de Energía estadounidense (DOE). Los proyectos forman parte de un resurgimiento de lo que se conoce como energía termosolar. A comienzos de la década de los 70 se desarrollaron varias tecnologías termosolares, pero una reducción en la financiación y los incentivos gubernamentales hizo que se estancara antes de llegar a una escala de producción lo suficientemente grande como para disminuir los costes y poder competir con las fuentes convencionales de electricidad. Las últimas resoluciones estatales e incentivos para las energías renovables han conducido a un nuevo impulso para comercializar esta tecnología. Hay más de seis gigavatios de energía solar concentrada ya con contrato en el suroeste de los EEUU actualmente, señala Thomas Mancini, gestor de programa de la tecnología de energía solar concentrada en el Sandia National Laboratory de Albuquerque, Nuevo México. Lo que equivale a unas seis centrales de energía nuclear. BrightSource Energy tiene contratos para proporcionar 1,3 gigavatios de energía solar con energía solar concentrada y Solar Millenium ha anunciado un proyecto que generaría cerca de 1 gigavatio de energía. La tecnología de Stirling Energy Systems utiliza espejos de 12 metros de ancho en forma de placa parabólica para concentrar la luz del sol en un motor Stirling. La diferencia de temperatura entre el lado caliente y el lado frío del motor se utiliza para mover los pistones y generar 25.000 vatios de electricidad. La primera fase de los proyectos a gran escala de la compañía utilizará 12.000 de estas placas para generar 300 megavatios de energía. Simington espera que la electricidad de los sistemas cueste entre 12 y 15 céntimos por kilovatio hora, más que las fuentes más baratas de electricidad, como las centrales eléctricas de carbón, pero competitiva en muchos mercados, especialmente por la noche, cuando los precios son más elevados. A principios de mes la compañía desveló su diseño de producción. En comparación con varios prototipos que se han probado durante años en el Sandia National Laboratory, el nuevo diseño recorta unas dos toneladas métricas en el peso de cada placa y reduce el número de espejos de cada una de 80 a 40. El diseño simplificado se puede construir en grandes cantidades utilizando el equipo de las fábricas de automóviles existentes.

Fuente: Technology Review

La clonación humana y sus implicaciones éticas

La clonación humana y sus implicaciones éticas La publicación de la existencia de Dolly levantó inmediatamente un debate sobre la posibilidad de clonar personas. La proximidad biológica hace pensar que la clonación humana sería posible desde un punto de vista técnico, aunque haya factores limitantes (principalmente el número de óvulos necesarios: hicieron falta más de 400 para conseguir a Dolly). El debate, por tanto, se sitúa en un contexto ético, no en si es posible llevarla a cabo, sino en si es conveniente, si debe aprobarse Son muchas las consideraciones éticas que pueden hacerse en torno a la clonación humana. Una aproximación sería considerar el fin de la clonación : si es obtener un nuevo ser desarrollado (clonación con fines reproductivos) o un embrión que será destruido para proporcionar células o tejidos (clonación humana con fines terapéuticos). La clonación con fines reproductivos Existe entre la comunidad científica una actitud bastante generalizada de rechazo hacia la clonación humana con fines reproductivos, aunque sólo sea por consideraciones prácticas: bajo porcentaje de éxitos, alto número de óvulos requerido, posibilidad de alteraciones o enfermedades en los clones... Estas objeciones, que se centran en las consecuencias negativas, no parecen tener suficiente fundamento, y con frecuencia se oye a investigadores afirmar que si hubiese un motivo realmente importante para clonar seres humanos no verían inconvenientes en que se hiciera. Los argumentos con un fundamento de tipo antropológico, y por tanto más sólido, podrían resumirse del siguiente modo: La clonación, incluso si no conllevara la muerte de embriones y tuviese un 100% de éxito dando lugar a un ser humano sin fallos, supone un atentado a la persona así generada, que sufriría una manipulación difícil de superar: - El clonado sería seleccionado positivamente por otros, que han decidido cuál va a ser su dotación genética y sus características biológicas. - El clonado sería generado con un fin: emular a alguien cuyas características interesan por algún motivo: un hijo fallecido al que se pretende sustituir, un genio cuyas habilidades interesa mantener, etc. Las consecuencias psicológicas de esa presión serían imprevisibles. - El clonado carecería de las relaciones elementales de familia: no tendría en absoluto padre, ni propiamente hablando madre: tendría un hermando gemelo mayor, una madre ovular (¿citoplásmica?) y una madre de alquiler. Se puede formular positivamente lo expuesto diciendo que, cualquier ser humano tiene derecho a que: > Ningún tercero decida su componente genético. > Ser querido por sí mismo y no para conseguir un fin, como emular o reemplazar a alguien (planteamiento que supone, además, un desconocimiento total de cómo son los seres humanos). > Tener un padre y una madre de los que procede, también biológicamente y que son responsables de él. Dicho de otro modo: la clonación reproductiva atenta a la libertad del clon, fija sus condiciones biológicas según el criterio de otros, y en ese sentido es un ejemplo difícilmente superable de manipulación del hombre por la técnica (manejada por terceros). La clonación humana con “fines terapéuticos”: el descubrimiento de las células madre embrionarias. En el campo de la aplicación terapéutica de los embriones se encuentra el verdadero debate que zarandea actualmente la opinión pública y a la comunidad científica. Para describir con detalle en qué consistirían esas posibles aplicaciones hay que hacer referencia a algunos descubrimientos o avances recientes, que no están directamente relacionados con la clonación. Concretamente: La posibilidad de curar enfermedades llevando a cabo transplantes no con órganos completos, sino con células, mediante la llamada terapia celular. Esto parece una buena alternativa para determinadas enfermedades que son el resultado de el mal funcionamiento de una población bien definida de células. Consistiría en reemplazar las células enfermas por otras sanas, sin necesidad de transplantar el órgano entero. La posibilidad de obtener células madre embrionarias. En el año 1998 dos grupos de Estados Unidos publicaron la obtención de células madre embrionarias a partir de embriones humanos que procedían de la fecundación in vitro. Esos embriones estaban en la fase llamada de blastocisto. Los blatocistos son embriones de 5-6 días y que tienen un aspecto esférico con una cavidad interna. Se diferencian en ellos lo que es propiamente el embrión (un grupo de células llamado masa celular interna), de las células que darán lugar a la placenta (llamadas trofoblasto). Los “logros” de estos grupos fueron de tipo técnico: tomaron masas celulares internas de varios blastocistos (destruyéndolos en el proceso) y las pusieron en cultivo. Consiguieron por un lado que esas células, llamadas células madre embrionarias, viviesen y se dividieran activamente en cultivo; y por otro lograron una especialización dirigida de esas células: tratándolas con diferentes factores consiguieron que dieran lugar a células tipo piel (ectodermo), tipo tubo digestivo (endodermo) o tipo músculo (mesodermo). ¿En qué consiste entonces la propuesta de clonación humana con fines terapéuticos? Consistiría en combinar la técnica de clonación con la de obtención de células madre embrionarias, para curar a adultos que tuviesen una enfermedad que pudiera resolverse mediante transplante celular. Esto se haría de la siguiente manera: 1. Mediante la técnica empleada en Dolly se generaría un embrión a partir de células diferenciadas de la persona que se quiere curar. 2. El embrión obtenido por clonación se destruiría a los 6 días para obtener a partir de él células madre embrionarias. 3. Esas células se especializarían hacia el tipo celular necesario para curar a la persona en cuestión. 4. Se implantarían esas células para curar a la persona. Al proceder de un embrión idéntico a la persona de partida, las células no provocarían rechazo al ser implantadas y además la posibilidad de mantener congelados los cultivos celulares proporcionaría una fuente casi ilimitada de tejidos. Hay que indicar que desde el punto de vista técnico este proceso es aún una mera posibilidad y haría falta mucha investigación para ponerlo en marcha: no se han conseguido todavía tipos celulares bien definidos a partir de células madre embrionarias y hay pocas evidencias de que de hecho puedan curar enfermedades. ¿Y las implicaciones éticas de este procedimiento? En este caso no hay manipulación del nuevo ser humano, como sucede en la clonación con fines reproductivos, por la sencilla razón de que ese embrión nunca llegará a término porque será destruido para ser fuente de tejidos. Ese mismo embrión implantado en el útero de una mujer daría lugar a un niño, porque el proceso de clonación es idéntico sean cuales sean sus fines (reproductivos o terapéuticos). Salta a la vista que el término “terapéutico” aplicado a este proceso es equívoco: es terapéutico para un ser humano, pero a costa de la vida de otro. La ilicitud de este tipo de clonación se basa en el derecho a la vida que exige la dignidad de todo ser humano, independientemente de su grado de desarrollo. Nadie tiene derecho a la salud a cualquier precio, y menos si el precio es otra vida humana. 5. Algunas alternativas a la clonación humana con fines terapéuticos Existen alternativas a la clonación humana con fines terapéuticos que no presentan objeciones éticas tan serias. La más interesante es la posibilidad de conseguir células madre de origen no embrionario. > En el cuerpo humano existen células madre de adulto que son precursoras de otros tipos celulares: células menos especializadas que podrían dar lugar a varios tipos de células. En los últimos años se ha descubierto que estas células son mucho más versátiles de lo que se pensaba. Si se ponen en cultivo y se tratan con diversos factores puede hacerse que se diferencien hacia tipos celulares muy diferentes de aquellos a los que habitualmente dan lugar en el cuerpo. Por ejemplo, a partir de células de médula ósea se han conseguido células de músculo, hueso, células nerviosas, hepatocitos, etc...Las células madre se encuentran en el adulto en la médula ósea, el sistema nervioso y órganos diversos. > También pueden obtenerse células madre del cordón umbilical y de la placenta del recién nacido. Como ya hemos indicado, placenta y cordón umbilical proceden del embrión y sus células tampoco provocarían rechazo. Utilizar esas células para auto-transplantes no presentaría ningún inconveniente ético, ya que no habría una nueva vida implicada. Otras posibilidades serían la modificación genética de células madre procedentes de otras personas para que no provocaran rechazo, o la existencia de bancos de células a los que se pudiera acudir para buscar células compatibles con la persona que las va a recibir. En definitiva: hay muchas vías terapéuticas que van haciéndose posibles por el desarrollo de la ciencia y que no vulneran el respeto debido a la vida humana en todas las fases de su desarrollo. Es deber de todos defender la vida humana y fomentar que se canalicen los esfuerzos de la investigación hacia lo que son verdaderos avances.

Share

Twitter Delicious Facebook Digg Stumbleupon Favorites More