diciembre 19, 2011

CURIOSIDAD, PASADO Y FUTURO: MARTE

Ya está en camino y llegará a destino en agosto del año próximo. Es el más extraordinario de todos los ingenios científico-tecnológicos jamás enviados al planeta hermano de la Tierra. Aquel mundo cercano y entrañable, de interminables llanuras anaranjadas, polvorientas, rocosas y oxidadas a rabiar. Crudamente frío. Envuelto por una atmósfera tan raquítica que da pena, incapaz de frenar la letal radiación ultravioleta del Sol. Y sin una gota de agua líquida. A todas luces, Marte no parece dejarnos esperanzas para la vida. ¿Final del juego? No tan rápido.

El planeta rojo es mucho más sutil que otros. Mucho más intrigante y seductor: durante las últimas décadas, toda una seguidilla de sondas espaciales no tripuladas (incluyendo varias que se posaron en su superficie) ha cosechado sobradas pruebas que demuestran que Marte fue completamente distinto hace miles de millones de años. Templado, envuelto por una gruesa atmósfera, y húmedo. Muy húmedo. Un mundo acogedor. Y quizás, hasta habitable. Un mundo que tiene toda una historia por contarnos. Y que aún hoy podría esconder fascinantes sorpresas.
Hacia allí va, entonces, el Mars Science Lander de la NASA, que partió de la Tierra el pasado 26 de noviembre, y que tiene por delante ocho meses de viaje interplanetario. Es una máquina prodigiosa que lleva el mejor nombre que podía llevar: Curiosidad (ver nota aparte, en contratapa). Y que una vez allí, dentro de un súper cráter, buscará contarnos mejor la gran historia marciana. En esta edición de Futuro, conversamos con el doctor John Grotzinger, principal científico de la misión (alguien que, y esto hay que contarlo, nos dijo estar “feliz en colaborar”, y nos agradeció mucho la divulgación del tema). A continuación, detalles, curiosidades y objetivos de esta nueva aventura marciana. Y hacia el final, una mirada a lo que vendrá.

–Para empezar, cuéntenos algo de usted, y cómo llegó a involucrarse en esta misión.
–Soy geólogo, y durante 18 años fui profesor en el Instituto de Tecnología de Massachusets. Pero la verdad es que yo quería trabajar en una misión a Marte. Y por eso, hace 6 años me trasladé al Instituto de Tecnología de California, el Caltech. Y tuve la suficiente suerte como para que la NASA me convocara para ser el “Científico del Proyecto” para la misión Mars Science Lander, es decir, del rover que bautizamos Curiosity. Y a eso me he dedicado todos estos últimos años.

–Vamos a eso: más allá de una obvia cuestión de tamaño y peso, ¿cuáles son las principales mejoras científicas de este rover con respecto a sus exitosos antecesores, Spirit y Opportunity?
–Hay muchas diferencias. Sólo por nombrar algunas, le cuento que Curiosity lleva cámaras mucho mejores. Una es la MastCam, que tomará fotos de altísima resolución del paisaje y de puntos de especial interés científico. La otra es la ChemCam, que lleva incorporado un potente láser infrarrojo que podrá vaporizar la superficie de rocas a varios metros de distancia. Y ese vapor será inmediatamente analizado para determinar composiciones químicas.

–Eso suena muy interesante. Spirit y Opportunity no podían vaporizar rocas con un rayo láser. Eso es casi Star Wars, pero en Marte... ¿Qué más?
–Curiosity lleva instrumentos muy específicos que podrían detectar agua en el subsuelo marciano. Y también, materia orgánica. Los espectrómetros analizarán también la composición del suelo, los minerales y hasta del aire. Y una estación meteorológica hará un monitoreo del medio ambiente marciano, todos los días...

–Días marcianos de 24 horas y media, que, dicho sea de paso, ustedes llaman “soles”. ¿Cuánto durará la misión?
–La misión primaria del MSL durará todo un año marciano o sea, unos 23 meses terrestres.

–¿Y tiene alguna estimación sobre cuánta distancia podría recorrer el rover Curiosity en un día marciano y en toda su misión?
–Curiosity podría recorrer, como máximo, unos 200 metros en un solo día marciano. Pero eso va a depender de muchos factores, como la inclinación del terreno, los obstáculos y la visibilidad. Si todo marcha bien, durante su misión primaria, el rover podría recorrer unos 20 kilómetros. O quizás más.

–¿Por qué eligieron el cráter Gale, cercano al ecuador de Marte, como sitio de amartizaje?
–El cráter Gale es un objetivo ideal. Mide unos 160 kilómetros de diámetro y tiene una enorme montaña central, de unos 5 mil metros de altura. En conjunto, se trata de una estructura que nos ofrece la mayor cantidad y variedad de formaciones geológicas directamente relacionadas con los objetivos de la misión.

–¿Por ejemplo?
–Por empezar, esa montaña está formada por una serie de sucesivas capas sedimentarias que nos pueden revelar buena parte de la historia de Marte. Además, en los flancos de este monte central hay depósitos de sedimentos probablemente arrastrados por antiguos cursos fluviales. Y también depósitos de arcillas, depósitos de sulfatos. No sólo tenemos imágenes de alta resolución que muestran que esa montaña tiene capas, sino que, además, los espectrómetros de naves actualmente en órbita nos indican que allí hay minerales que obviamente interactuaron con agua líquida en algún momento del pasado remoto de Marte.

–A propósito de las naves actualmente en órbita marciana que usted menciona ¿Curiosity trabajará solo o en equipo con esos aparatos?
–El rover trabajará en forma absolutamente coordinada con esas naves. Estamos hablando del Mars Reconnaissaince Orbiter y el Mars Oddyssey, de la NASA, e incluso del Mars Express, de la ESA, la Agencia Espacial Europea. Por un lado, estas sondas harán de enlace de comunicaciones entre el rover y la Tierra. Y por el otro, los datos y observaciones aportados por esas naves nos ayudarán a poner en un contexto más amplio las propias observaciones de Curiosity.

–Vamos a lo central, ¿cuáles son los principales objetivos científicos de la misión?
–Son varios. Por un lado, queremos estudiar el clima día a día, medir la radiación solar, e incluso las radiaciones cósmicas que llegan a la superficie. También queremos caracterizar la geología marciana en todas las escalas. Pero el objetivo primario es la búsqueda de ambientes habitables. Pasados o presentes.

–¿Buscar “ambientes habitables” incluso hoy?
–Sí, aún hoy.
–Suena raro, porque hoy en día Marte es seco a rabiar, su atmósfera es escuálida, hace mucho frío y la letal radiación ultravioleta del Sol pega de lleno en la superficie...
–Así es. A escala global, Marte es así. Y resulta demasiado desafiante como ambiente habitable. La verdad es que nadie espera encontrar grandes comunidades microbianas en la superficie marciana. Sin embargo, no podemos descartar que a pequeña escala existan condiciones locales especiales que permitan la presencia de vida.

–A propósito, entonces: ¿Curiosity está preparado para encontrar vida en Marte?
–No. Esta misión no está destinada a la detección de vida. Ni presente ni pasada. Curiosity no cuenta con los instrumentos para hacer eso.
–Es bueno que lo aclare, porque cada vez que una nave parte con rumbo a Marte, lo único que se suele decir es que “va a buscar vida”.
–Pero no es así.

–Aunque, seamos justos, alguna vez lo fue: en los ’70, las Viking I y II realmente buscaron vida en Marte. Tenían instrumentos para eso. ¿Por qué desde entonces ninguna otra nave, de las varias que amartizaron, llevó instrumental biológico?
–La misión Viking nos mostró que la detección de vida no es algo sencillo. Todo lo contrario. Aún hoy, ese tipo de estudios resulta muy complicado. Y sin una fase de profundo reconocimiento previo de la zona, resulta una tarea muy riesgosa.

–De hecho, alguno de los experimentos de las Viking dio resultados bastante confusos, que aún hoy se discuten...
–Justamente. Antes de intentar buscar vida en Marte, tenemos que tratar de entender al planeta. Dónde estuvo, o dónde está, el agua. O dónde pudieron, o pueden, estar los ambientes habitables. Recién entonces podremos estar más cerca de la cuestión puntual de dónde buscar indicios de vida. Pero hay algo más...

–Adelante...
–No hay que olvidarse de que aun en la Tierra, un planeta rebosante de vida microbiana, la preservación de la evidencia biológica es muy difícil. De hecho, los descubrimientos de trazas de vida en antiguas rocas terrestres, de miles de millones de años, son realmente muy escasos. Y a menudo requieren instrumentos tan grandes que llenarían una habitación. Ni siquiera una máquina de la escala de Curiosity podría llevar esos aparatos a Marte.

–Siguiendo en esta línea, no podemos dejar de preguntarle por los recientes hallazgos de metano en la atmósfera marciana. Un gas que, aclaremos, podría ser “biomarcador” de bacterias metanógenas, viviendo en el subsuelo marciano. ¿Curiosity podrá detectar metano de Marte?
–Sí, la presencia de metano puede delatar procesos biogénicos en la subsuperficie del planeta. Aunque también puede ser la señal de procesos inorgánicos. Y Curiosity lleva instrumentos capaces de detectar y medir la cantidad de metano en la atmósfera marciana.

–Este suplemento científico se llama Futuro, así que hablemos justamente de lo que vendrá. ¿Cuáles serán los próximos pasos de la NASA para la exploración de Marte?
–El Programa de Exploración de Marte de la NASA tiene prevista una nueva misión de descenso en el planeta. Y esta vez será en colaboración directa con la Agencia Espacial Europea, la ESA. La misión tiene como objetivo traer muestras del suelo marciano a la Tierra. Y si los fondos lo permiten, ocurrirá en tres etapas, abarcando, quizás, más de veinte años.

–Cuéntenos más en detalle, por favor. ¿Cómo serán esas tres etapas y cuándo sería la primera?
–La primera etapa está prevista para 2018. Será un rover que recorrerá la superficie de Marte, recogerá unas cuantas muestras de suelo y rocas, y las guardará. Unos años más tarde, haremos descender otro rover en ese mismo lugar del planeta, se encontrará con el primero, se llevará las muestras recogidas, y las colocará a bordo de un aparato llamado Vehículo de Ascenso de Marte (MAV), que despegará, y quedará en órbita del planeta. Finalmente, una tercera nave viajará hasta allí, tomará la carga y la traerá de vuelta hasta la Tierra.

–Suena tan interesante como difícil. Nada puede fallar en esa larga cadena...
–Así es, pero traer muestras de Marte es el siguiente paso lógico a dar.

–¿Por qué?
–Por el estudio de las muestras en sí, pero también por todo lo necesario para lograrlo. No sólo hará falta llegar hasta allí, sino también traer algo de regreso a la Tierra. Y todo esto requerirá de mucho desarrollo tecnológico que, además, será muy útil para las futuras misiones humanas.

–Justamente, a eso quería llegar. Durante los últimos años se mencionaron distintas fechas para la primera misión tripulada. En su opinión, ¿cuándo llegará el hombre a Marte?
–Enviar humanos a Marte es algo que todavía está muy lejos. Es algo que podría tomar 50 años. O quizás más.

Por Mariano Ribas, Pagina 12, diciembre 2011

diciembre 06, 2011

CEREBRO: recomposición

Durante la mayor parte del siglo pasado, los científicos estaban de acuerdo en que el cerebro de un adulto no producía nuevas neuronas. Se refutó esta teoría en la década de los noventa, pero siguió siendo un misterio la función que desempeñaban las nuevas neuronas en el cerebro adulto. Un estudio reciente sugiere que podría consistir en ayudar al encéfalo a recuperarse de lesiones traumáticas.
Cory Blaiss, entonces en el Hospital del Sudoeste de la Universidad de Texas, y sus colaboradores crearon ratones genéticamente modificados con tal de activar o desactivar a voluntad la neurogénesis en el hipocampo, región responsable del aprendizaje y la memoria. Les provocaron luego una lesión traumática en el cerebro. Compararon el desempeño de los ratones que podían producir nuevas neuronas con los que no eran capaces de hacerlo. Entonces hicieron que cada ratón atravesase por un laberinto acuático, en donde tenían que encontrar una plataforma oscura bajo la superficie de agua turbia. Observaron que, tras la lesión, solo los ratones con la neurogénesis intacta podían desarrollar una estrategia eficiente para encontrar la plataforma escondida, una habilidad basada en el aprendizaje espacial y la memoria. Llegaron a la conclusión de que sin neurogénesis en el hipocampo, la recuperación de las funciones cognitivas después de una lesión cerebral se veía perjudicada.
El estudio podría favorecer el desarrollo de técnicas terapéuticas muy necesarias, ya que las dificultades de aprendizaje y de memoria asociadas con las lesiones cerebrales traumáticas son casi universales. La capacidad de estimular una neurogénesis más poderosa podría llevar a tiempos de curación más cortos y a una recuperación más completa de las funciones cognitivas. Un avance que cambiaría la vida a millones de personas que sufren lesiones cerebrales traumáticas cada año.

Investigación y Ciencia, agosto 2011


noviembre 14, 2011

TiEMPO ATOMiCO por GREENWiCH MEAN TiME (GMT)

Desde hace unos días, cincuenta científicos de todo el mundo se encuentran reunidos a puerta cerrada en Londres, auspiciados por la prestigiosa Royal Society, para discutir una nueva definición del tiempo que relegaría al olvido al sistema GMT en favor de la hora atómica. 


El debate levanta pasiones en la prensa británica. Para el Sunday Times, se trata nada menos que de “la pérdida” de la hora GMT, “símbolo durante más de 120 años del papel de superpotencia de la Gran Bretaña victoriana”.

La 'hora media de Greenwich' (GMT) con base en Londres se convirtió en referencia mundial tras una conferencia celebrada Washington en 1884.

"Entendemos que en el Reino Unido tenga este sentimiento de pérdida del GMT," señala Elisa Felicitas Arias, directora del departamento de Tiempo en la Oficina Internacional de Pesas y Medidas (BIPM), una organización internacional con sede en Sèvres, cerca de París, encargada de la definición de estándares como el kilo y el metro.

La nueva definición de tiempo a debate propone superar totalmente del tiempo “solar”, basado en la rotación de la Tierra y medido por los astrónomos desde hace más de 200 años a partir del meridiano de Greenwich. 


De hecho, ya hace 40 años que el mundo no se rige por la hora GMT, que sigue siendo la hora legal en el Reino Unido y es ampliamente utilizado como referencia en todo el mundo.

Los relojes atómicos y el segundo de la discordia
Una conferencia internacional adoptó en 1972 el "Tiempo Universal Coordinado", o UTC, calculado en 70 laboratorios en todo el mundo por 400 relojes "atómicos" (en los que las fracciones de tiempo se miden por el ritmo de oscilación de un átomo de cesio).
El tiempo atómico tiene la ventaja de ser mucho más preciso, aunque difiere en unas fracciones de segundo del tiempo marcado por la rotación de la Tierra, por lo que para mantener la relación con la rotación de la Tierra, se añade casi todos los años un "segundo bisiesto". 

El tiempo atómico difiere en unas fracciones de segundo del marcado por la rotación de la Tierra.

Este es el segundo que los científicos proponen eliminar, abandonando con ello el ajuste de la hora atómica a la hora GMT.
Según Arias, el cambio es necesario para el funcionamiento de la red de telecomunicaciones o de la navegación por satélites a través del GPS o el nuevo sistema Galileo europeo. Esas redes “necesitan una sincronización del nivel del nanosegundo”, explica.
Algunos sistemas aplican ese "salto" de un segundo. Pero otros no, por lo que la interoperabilidad se ve comprometida.

"Se están empezando a generar escalas de tiempo están en paralelo", añade. "Imaginen un mundo en el que hubiera dos o tres definiciones del kilogramo", compara Arias.
Una recomendación para suprimir ese salto de un segundo será votada en enero en la Unión Internacional de Telecomunicaciones de Ginebra.
Si sale adelante, la hora atómica se alejará poco a poco de la hora solar. A corto plazo será inapreciable, pero en 60 años la diferencia será de un minuto. En 600 años, la diferencia será de una hora.
La propuesta se ha encontrado con opiniones en contra como la del Secretario de Estado británico para la Ciencia, David Willetts, que se opuso al proyecto porque "debemos atenernos al tiempo real, al que los hombres sienten, que se basa en la rotación de la Tierra y no en relojes atómicos". 
Ante estas objeciones, la conferencia de la Royal Society podría dejar abierta la posibilidad de otro tipo de ajustes para correlacionar ambas mediciones.
Una de las opciones es agregar una hora cada varios cientos de años. “Después de todo, saltamos una hora con el paso a la hora de invierno el pasado fin de semana”, argumenta Arias.

CÉLULAS MADRE EMBRIONARIAS / conflicto de patentes

Las terapias basadas en células madre representan uno de los avances más prometedores en las nuevas tecnologías médicas.  Sin duda, como ocurre con todo nuevo descubrimiento, no están exentas de dificultades técnicas que pueden terminar por apagar el entusiasmo original. Ya sufrimos enormes reveses anteriormente con otras tecnologías que también prometían ser el mayor avance de la humanidad y que parecían suponer un paso definitivo para derrotar todas las enfermedades, estoy pensando por ejemplo en el famoso caso de la terapia génica.
Pero no es menos cierto que esos pasos  gigantescos en el conocimiento que nos permiten avanzar de manera muy significativa en nuestra salud se han producido ya con anterioridad y sabemos por tanto que son posibles. Repasando de cabeza, antibióticos, vacunas, transplantes, …, a cualquiera le vendrán multitud de ejemplos.
De lo que no cabe la menor duda es de que si no podemos analizar, probar, desarrollar, esas posibles terapias basadas en el uso de células madre, no podremos averiguar si la promesa se hace realidad y alcanzamos nuevos tratamientos radicalmente más efectivos y seguros que los actuales. Sin embargo, desde el principio, la investigación alrededor de células madre de origen embrionario se ha visto lacrada, entre otros, por unos aspectos éticos que han generado agrios debates.
Las células madre embrionarias se derivan del primer estadio de desarrollo embrionario en el que las divisiones celulares dejan de ser simétricas (es decir, divisiones que dan lugar a dos células hijas idénticas, con las mismas propiedades) para pasar a generar células con distintas capacidades. El embrión en esa etapa es denominado blastocisto, y consiste en una capa celular externa que provee de nutrientes al embrión (el denominado trofoblasto), y se desarrollará como placenta, y una masa celular interna (o “inner cell mass”) denominada embrioblasto, que consiste en células que tienen la capacidad de diferenciarse en todos los tipos celulares que aparecerán en el organismo adulto, dando lugar a los tejidos y órganos. Las células de este embrioblasto pueden ser aisladas y puestas en cultivo y, una vez adaptadas al nuevo medio, son lo que se denominan células madre embrionarias, o células ES (del inglés “embryonic stem”). 

La extracción de estas células del blastocisto suponía hasta hace poco la destrucción del embrión, lo que para muchos era inaceptable porque chocaba con sus convicciones éticas, morales o religiosas. Lo cierto es que las líneas celulares de ES establecidas en cultivo que existen en la actualidad (que sobrepasan ya el centenar), no fueron en ningún caso obtenidas mediante la destrucción de embriones que hubiesen sido obtenidos de manera ilícita o que hubiesen sido generados con ese objetivo, si no que derivan de embriones excedentes de procesos de fertilización in vitro. Cuando una pareja se somete a técnicas de fertilización in vitro, los embriones resultantes son muchos más de los necesarios para proceder con su implantación y son guardados congelados en las clínicas que se dedican a esta tecnología. Con el tiempo, el destino de esos embriones es ser destruidos, puesto que no cumplen ninguna función una vez completado el proceso de reproducción.
Pero hoy en día se han desarrollado técnicas que permiten derivar estas células ES incluso sin que ello suponga la destrucción de los embriones. La empresa estadounidense Advance Cell Technologies (ACT), una de las que pugna por desarrollar terapias basadas en células madre, basa muchas de sus propuestas terapéuticas en este tipo de células madre para obviar el rechazo de diversos sectores contrarios a tecnologías que supongan la destrucción de embriones humanos.
Pero por si todo esto no fuera poco, recientemente se ha producido un importante revés en el desarrollo de las terapias basadas en el uso de células madre embrionarias. El Tribunal de Justicia de la Unión Europea, con sede en Luxemburgo, dictaba sentencia el pasado 18 de Octubre en el caso que enfrentaba a la organización ecologista Greenpeace con el neurocientífico alemán Oliver Brüstle, de la Universidad de Bonn. Este científico había solicitado la concesión de una patente hace años, en 1999, de métodos que permitían diferenciar células madre embrionarias a células precursoras neurales, del tipo de las que en los organismos adultos serían capaces de dar lugar a las células adultas especializadas del sistema nervioso.
Esa patente fue cuestionada por Greenpeace como contraria al derecho europeo que regula el uso de material biológico y protege a los embriones humanos contra su comercialización, y el tribunal de patentes alemán decidió revocar la patente en el 2006. Cuando el científico alemán recurrió la decisión, la justicia alemana decidió acudir al Tribunal de Justicia de la Unión Europea para que se pronunciase al respecto.
La Directiva comunitaria afectada por el litigio es la 98/44, relativa a la protección por patente de material biológico, en donde hay un artículo (el artículo 6) que dice literalmente (en su apartado 2, letra c) que no será patentable “la utilización de embriones humanos con fines industriales o comerciales”. El científico alemán se escudaba en que él no trataba de patentar el uso de un embrión, si no un método aplicable a células embrionarias existentes para dirigir su diferenciación hacia un tipo celular concreto. Por su parte, Greenpeace, sostenía que la obtención de una célula madre embrionaria, imprescindible para poner en práctica el método a patentar, implicaba necesariamente el uso de un embrión, por lo que se estaría infringiendo el artículo 6 de la directiva.
Lo que este tribunal ha dictaminado es que:
1) Constituye un “embrión humano” todo óvulo humano a partir del estadio de la fecundación (está claro). No conforme con esa definición, la extiende también a todo óvulo humano no fecundado en el que se haya implantado el núcleo de una célula humana madura (tipo oveja Dolly, ¿la recuerdan?), y a todo óvulo humano no fecundado estimulado para dividirse y desarrollarse mediante partenogénesis. El problema es que tanto el proceso de transferencia nuclear de célula somática (el empleado en la generación de la oveja Dolly) como la estimulación partenogenética, no generan embriones viables humanos. Resulta extraño considerar persona humana “algo” que no podría nunca llegar a desarrollarse como tal.
Pero hay una consideración importante más. El tribunal expresa su dictamen con claridad con respecto al concepto de embrión humano, pero cuando hace referencia a la consideración que deben tener las células madre embrionarias establecidas en cultivo ya existentes, las que la patente necesitaría utilizar, el tribunal pasa la pelota a los tribunales nacionales. De un modo que recuerda a un famoso pronunciamiento “Marxista” (por Groucho, no Karl) el tribunal declara:
Corresponde al juez nacional determinar, a la luz de los avances de la ciencia, si una célula madre obtenida a partir de un embrión humano en el estadio de blastocisto constituye un “embrión humano”.

2) La exclusión de la patentabilidad en relación con la utilización de embriones humanos con fines industriales o comerciales contemplada en el artículo 6, también se refiere a la utilización con fines de investigación científica, pudiendo únicamente ser objeto de patente la utilización con fines terapéuticos o de diagnóstico que se aplica al embrión y que le es útil.

3) El artículo 6 excluye la patentabilidad de una invención cuando la información técnica objeto de la solicitud de patente requiera la destrucción previa de embriones humanos o su utilización como materia prima, sea cual fuere el estadio en el que éstos se utilicen y aunque la descripción de la información técnica reivindicada no mencione la utilización de embriones humanos. Es decir, que no es válido aducir que uno intenta patentar un método que debe aplicarse a unas células, sin hacer mención a qué células y obviando de donde han salido esas células (del embrión), por muy lejos que se encuentren ahora mismo de ese embrión original. Vamos, que no nos saltamos la legislación simplemente no mencionando al embrión.

Parece evidente que la legislación de protección del embrión humano tenía como objetivo original impedir que se produjesen embriones con el único objetivo de su utilización comercial, lo que resulta a todas luces comprensible. Pero no parece tan claro que emplear líneas celulares establecidas previamente en cultivo a partir de embriones procedentes de excedentes de clínicas de fertilidad, o de células aisladas sin causar la destrucción del embrión, pueda estar sujeto al mismo control restrictivo de su uso. En este sentido, parece que el Tribunal de Justicia de la UE deja abierto a la interpretación del juez nacional determinar si una célula madre embrionaria es equiparable a un embrión humano.
La decisión más relevante relativa a la patentabilidad de invenciones basadas en células ES se produjo por parte de la Oficina Europea de Patentes (EPO) en el conocido como caso WARF (caso G 02/06). En ese caso, la EPO resolvió en contra de la Fundación de Investigación Alumnos de Wisconsin (WARF, la oficina de transferencia de tecnología de la Universidad de Wisconsin en Madison) quienes habían solicitado la patente EP0770125 relativa al uso de células ES de primates.
Lo que en aquel momento se decidió fue que las invenciones cuya explotación implicaban la destrucción del embrión no podían ser objeto de protección por patente por ser contrarias a la Regla 28(c) del Convenio de la Patente Europea (que es una trasposición del artículo 6(2)(c) de la directiva 98/44). Desde entonces, la EPO permite patentes de invenciones con células madre humanas basadas en líneas establecidas de ES con el requisito de que en el momento de la solicitud de patente, dichas líneas establecidas de ES ya fuesen disponibles, o hubiesen sido obtenidas empleando tecnologías que permitiesen aislar las células ES sin destruir el embrión.
Sin embargo, tras esta decisión del Tribunal de Justicia de la UE y pese a que la EPO no está obligada a ceñirse a las decisiones de este tribunal, lo más probable es que dado el principio de mutua consideración, la EPO acepte seguir esta misma doctrina en sus futuras decisiones. Más aún, los cientos de patentes europeas ya concedidas por la EPO relativas al uso de células ES humanas tendrían un alto riesgo de ser anuladas por los juzgados nacionales en el caso de que terceros (¿Greenpeace por ejemplo?) iniciasen procedimientos de nulidad.
Sea como fuere, lo que parece claro es que esta decisión judicial ha levantado ampollas en muchos científicos del área de las células madre (ver por ejemplo las páginas del Consorcio Europeo EuroStemCells, o de la Sociedad Internacional para la Investigación con Células Madre, ISSCR), puesto que parece poner un importante obstáculo en el camino del desarrollo de futuros procedimientos terapéuticos de estas células.
Es obvio que la posibilidad de explotar económicamente los procedimientos y tecnologías que pudieran derivarse de estas investigaciones es un potente motor que empuja la investigación en este (y en cualquier otro) área.
La sociedad ha demandado siempre de los científicos (con razón) que sus avances se traduzcan de manera eficaz y lo más rápidamente posible en productos, tecnologías o procedimientos que supongan un beneficio y reviertan en el bienestar de la sociedad que los financia. Difícilmente podrá hacerse algo así en un área que parece estar seriamente limitada desde el punto de vista legal, en la capacidad de proteger la propiedad industrial de sus investigaciones.

agosto 05, 2011

NEUROCiENCiA: SEÑALES EN UNA TORMENTA

Si pudiésemos detener el tiempo por un instante y hacernos lo suficientemente pequeños como para poder distinguir las moléculas cuando una neurona se comunica con otra a través de una sinapsis (el punto de contacto entre ambas) apreciaríamos lo que se observa en la parte derecha de la imagen. La forma en que el cerebro siente, piensa, aprende y expresa las emociones depende del modo en que se transmiten señales las neuronas. De ahí que numerosos laboratorios trabajen febrilmente para comprender el funcionamiento de las sinapsis y la manera en que los medicamentos psiquiátricos, que actúan sobre ellas, mejoran la vida de los pacientes.
Sin embargo, los avances de los neurólogos se topan con grandes dificultades a causa de la enorme complejidad de las sinapsis, de un tamaño inconcebiblemente pequeño y una rapidez extrema. Gracias a los esfuerzos coordinados de más de 1400 tipos de moléculas, una neurona se comunica con otra mediante la liberación de neurotransmisores. Estos atraviesan el estrecho espacio hasta llegar a la superficie receptora de la célula vecina. La única forma de conocer en profundidad lo que sucede en una sinapsis consiste en desarrollar un modelo por ordenador lo más realista posible. Se confía en que al ejecutar una simulación momento a momento y molécula a molécula se obtengan nuevos datos que, posteriormente, se pueden comprobar de forma experimental.
La imagen generada por ordenador de la figura, creada por el grupo de Tom Bartol, del Instituto Salk de estudios Biológicos, constituye un primer paso. Representa una pequeña parte de una reconstrucción tridimensional, realizada durante cuatro años, de un minúsculo cubo de tejido nervioso perteneciente a un cerebro de rata. Además de la estructura, la imagen recoge el momento en que una neurona se comunica con otra. Las moléculas de neurotransmisor irrumpen en el espacio de sinapsis, el punto de contacto entre axón de la célula receptora.
La simulación de Bartol ha permitido realizar una importante observación: una quinta parte del volumen de esa región del cerebro corresponde a todo el espacio que separa las células vecinas entre sí; un espacio por el que, según parece, los neurotransmisores se propagan extensamente. Esta vasta difusión contradice la imagen estándar  de la sinapsis como un lugar donde únicamente se comunican dos neuronas y podría alterar nuestros conocimientos sobre el modo en que se transmite la información en el cerebro.


Investigación y Ciencia, junio 2011

junio 30, 2011

MICROSOFT Y LA OFERTA FREE

Por qué Microsoft debería tomar más en serio a sus competidores ‘gratuitos’

Durante los últimos cuatro años, el software Office de Microsoft ha sido atacado por alternativas gratuitas: el Google Docs y el Open Office de Oracle. Si bien Microsoft finalmente respondió en 2010 con Microsoft Live, una versión gratuita y “en nube” de Office, esperó demasiado y no fue lo suficientemente enfática para contener lo que podría convertirse en una grave amenaza.

La reticencia de Microsoft a adoptar una estrategia de producto gratuito no debería sorprendernos. Su negocio de aplicaciones para oficina ha disfrutado por mucho tiempo de un casi monopolio y ha sido muy rentable. Y, a excepción de los usuarios sensibles al precio como los estudiantes universitarios y las entidades públicas, sus clientes no han ido con los productos gratuitos. Es más, las preocupaciones acerca de la incompatibilidad de archivos, las funciones faltantes en los productos de la competencia y la necesidad de enseñar a los empleados a usar las nuevas aplicaciones han mantenido a la mayoría de los clientes corporativos dentro de la carpeta de Microsoft.
Pero en nuestra opinión, Microsoft se equivocó al no tomar en serio la deserción entre los clientes sensibles al precio.
Nuestra encuesta a estudiantes universitarios sugiere que cerca de 20% actualmente sólo usa alternativas gratuitas, cuando hace cinco años eran sólo 4%, según un competidor, la cantidad de estudiantes en E.E.U.U. que usa Google Apps ha subido de 7 millones a 10 millones en los últimos dos años y cerca de 3 millones de usuarios de empresa pequeñas y de algunas instituciones grandes (incluyendo Brown, el sistema universitario del estado de California, Gonzaga, University of Minnesota, University of Virginia, Vanderbilt, Villanova y William & Mary) también lo han adoptado. Esto es un gran problema para Microsoft: Open Office y Google Docs seguirán mejorando, volviéndose más atractivos para los usuarios nuevos y jóvenes, al igual que para las instituciones sensibles al precio, especialmente aquellas sobreatendidas por el exceso de funciones de los programas de Office.
Hasta ahora, Microsoft Live no parece contrarrestar eficazmente las ofertas gratuitas de sus competidores. Hay varias razones posibles. Una es que Microsoft, a diferencia de Open Office, no ofrece una versión que pueda ser descargada y operada por una computadora individual. Otra es que Microsoft no ha hecho una promoción suficientemente agresiva de su producto gratuito y, como resultado, no es tan conocido como Google Docs.
A juzgar por la tibia respuesta de Microsoft hasta la fecha, la empresa no quiere que sus clientes se pasen a su producto gratuito. Esto es un error. Al sacrificar parte de los ingresos que obtienen de los clientes sobreatendidos o sensibles al precio, Microsoft podría impedir que los competidores con productos gratuitos sigan ampliando su base y tener una posibilidad mayor de retener a sus clientes más valiosos: las empresas y los usuarios hogareños más sofisticados que hoy son leales pero que finalmente podrían desertar.


por: Harvard Business Review, junio 2011

junio 21, 2011

¿SE ACABARON LOS GENiOS?

Nuestras Universidades siguen ancladas en modelos organizativos obsoletos, lejos de la interdisciplinariedad que exigen los retos científicos actuales.
La idea del científico como un genio solitario todavía forma parte del imaginario colectivo. Sin embargo, hace уа decenios que esta imagen nо se corresponde con la realidad, sobre todo en el campo de las ciencias experimentales у, еп particular, en el de la química, el que mejor conozco. El extraordinario desarrollo de la ciencia en el siglo XX trajo consigo la aparición de una nueva estructura básica en la que el científico desarrollaba su actividad: el grupo de investigación.

Por otro lado, la labor de los investigadores se ha visto condicionada por la progresiva especialización. Ello ha sucedido con todas las ciencias. Durante el siglo XX, la química se subdividió en cuatro grandes aéreas: analítica, física, inorgánica y orgánica. Ello afecta no solo а la estructura organizativa de nuestras universidades, sino también а los planes de estudio. La famosa «adaptación al espacio europeo» (el proceso Bolonia) ha sido en nuestras universidades un ejercicio sobre cómo se enseña, pero no sobre otra cuestión fundamental: ¿que se ensena?. El respeto de la subdivisión en cuatro áreas, que en nuestro país se llaman «de conocimiento» pero que son también «de repartimiento» puesto que articulan la distribuci6n de todo tipo de recursos en las universidades, ha sido un tema tabú.

Los objetivos de la ciencia han evolucionado а lo largo de los siglos, en función de los retos de la humanidad. Sin embargo, cuando una ciencia alcanza un grado de madurez notable, corno es el caso de lа química, suele volverse conservadora y reacia а cambios, aunque estos sean indispensables para su desarrollo. El grupo de investigación corno unidad básica y la subdivisión en cuatro áreas han sido dos elementos clave para el extraordinario desarrollo que ha experimentado lа Química en el siglo XX. La cuestión que debemos plantearnos es: ¿lo siguen siendo hoy?

Durante los últimos años hemos asistido а un cambio radical en la definición de los problemas científicos. El enfoque ya no es disciplinario, sino social. Los grandes retos de la química son hoy globales. Se articulan alrededor de tres ejes: (1) comprender los procesos biológicos y aplicar ese conocimiento al servicio del bien común; (2) transformar lа manera de generar, suministrar, transmitir, almacenar y usar la energía; (3) desarrollar procesos para lа obtención sostenible y limpia de los compuestos y materiales indispensables para las necesidades humanas.

Como plantean con gran claridad George М. Whitesides y John Deutch en su artículo «Let's get practial», publicado en Nature en fecha reciente, la estructura que funcionaba para atacar los problemas del siglo pasado no sirve para abordar ninguna de esas cuestiones globales. La división tradicional de la química (orgánica, física, inorgánica у analítica) а lа que demasiados investigadores (sobre todo en las universidades) у agencias oficiales se aferran todavía, es completamente obsoleta, limita el campo y la visión, е impide afrontar los problemas actuales. Además, la, organización en grupos de investigación aislados es incompatible con el enfoque multidisciplinar que requieren los retos científicos complejos.

Los países punteros en ciencia y tecnología ya están aplicando ese necesario cambio de perspectiva. En ЕЕ 1Л3;, dos de las entidades públicas que manejan pre-supuestos mas elevados en investigación, lа Fundación Nacional para la Ciencia (NSF) у el Departamento de Energía (DOE), han emprendido en los últimos anos un programa de creación de centros de investigación de un nuevo tipo, concebidos para afrontar los retos que la sociedad impone. Se trata, en muchos casos, de centros «virtuales» en los que participan у colaboran investigadores de distintas instituciones, pero con objetivos y planes de trabajo comunes. Los Centros para lа Innovación Química (CCI) de lа NSF y los Centros para la Investigación de Frontera en Energía (EFRC) del DOE constituyen un paradigma de esta nueva forma de entender lа ciencia. Se definen por el problema que tratan, en torno аl cual se articula un equipo de trabajo solido у amplio, integrado por investigadores procedentes de campos muy diversos.

En el Centro para la Estructura y Función de la Lignocelulosa (EFRSC, con un presupuesto de 21 millones de dólares), biólogos moleculares, químicos, físicos, ingenieros y modelizadores abordan cuestiones clave sobre la lignocelulosa que faciliten su uso corno fuente de biomateriales y bioenergía renovables. En el Centro para la Innovación Química Energía para el Planeta (CCI Solar, financiado con 12 millones de dólares por la NSF) aplican conocimientos de síntesis orgánica e inorgánica, física y química del estado sólido, electroquímica, cinética, química teórica у computacional al desarrollo de procesos para descomponer el agua mediante luz solar. Un proyecto semejante, con el acento en el desarrollo de catalizadores, se lleva а cabo en el Centro para el Desarrollo de Nuevas Tecnologías mediante Catálisis (CENTC, de lа NSF).
Los genios no se han acabado, pero su talento y su creatividad solo podrán desarrollarse si se dispone de un marco organizativo y estructural que permita su aprovechamiento. Y eso empieza ya en la etapa formativa.
 
 
Por: Agustí Lledos, es catedrático  de química física
de la Universidad Autónomo de Barcelona
-Investigación y Ciencia, abril 2011

UN CARACOL A PRUEBA DE TODO

El caracol de pie escamoso (Crysomallon squamiferum), que habita en el fondo del océano Indico, posee uno de los caparazones más robustos de la naturaleza. Gracias a él, este pequeño molusco es capaz de resistir la presión del agua a una profundidad de 2.400 metros (8.000 pies). Tampoco se ve afectado por la elevada acidez del agua ni los bruscos cambios de temperatura propiciados por el agua caliente que brota de los respiraderos hidrotermales. Además, está a salvo del ataque de los depredadores.
Reflexiones: La concha de este caracol consta de tres capas: la externa incorpora partículas de sulfuro de hierro; la del medio se parece a la capa de proteína que tienen otras especies de caracoles, y la interna está compuesta nde un mineral de calcio denominado aragonito. Con este blindaje triple, el molusco es inmune a las poderosas pinzas de los cangrejos. Aunque uno de ellos pase días enteros apretando su caparazón, no logrará quebrarlo.
Sirviéndose de una máquina con punta de diamante llamada indentador, los investigadores descubrieron que “la capa externa está diseñada para agrietarse de manera que absorba la energía mecánica”, según la revista Discover. “Las grietas únicamente se abren en forma de abanico y alrededor de las partículas de sulfuro de hierro. Este ‘microagrietamiento’ no solo absorbe la energía, sino que evita la formación de fisuras mayores.” La capa del medio también contribuye a la absorción de la energía mecánica producida durante un ataque.


Los investigadores esperan copiar la estructura de este caparazón para diseñar cascos y chalecos antibalas más resistentes, así como cascos de barcos y aviones. “Hasta los oleoductos de las tierras árticas, que son azotados por los icebergs, se beneficiarían”, añade la revista.

abril 21, 2011

VIGILANCIA DEL MAR DESDE EL ESPACIO

El conocimiento de nuestros mares se remonta muy atrás. En la antigüedad, la mayoría de las rutas comerciales o las que seguían los exploradores europeos se basaban en el conocimiento de los vientos y las corrientes marinas. Hasta finales del Siglo XIX no nació la oceanografía, que ha pasado por varias etapas hasta llegar a nuestros días. en los años setenta surgió la teledetección. Comenzaba la era de los satélites de observación de la Tierra, que ha revolucionado la oceanografía clasica. La aportación de datos que complementan las mediciones tradicionales ha facilitado el estudio de la interacción de procesos y el desarrollo de modelos matemáticos.

De los parámetros que se miden desde el espacio, uno de los que revisten mayor importancia para el estudio cuantitativo de los océanos es la temperatura superficial del mar (TSM). Estos datos términos tienen una amplia variedad de aplicaciones, entre otras: modelos atmosféricos y climáticos, investigación en oceanografía física y biológica, actividad comercial relacionada con pesquería, mediadas de corrientes superficiales y estudios de polución.

Este estudio implica lo siguiente:

ESTRUCTURA COSTERAS: Puesto las imágenes TSM o de color del océano permiten identificar afloramientos, filamentos, remolinos y otras estructuras mesoescaleras cercanas a la costa la investigación en este sentido ha realizado el proceso es de imágenes y teledetección, una metodología automática para la detección, seguimiento y análisis de este tipo de estructuras oceanográficas mediante imágenes multisensoriales y multitemporales de teledetección. Esta herramienta ofrece aplicaciones también en otros ámbitos: estudios ambientales (seguimiento de manchas de petróleo u otros vertidos contaminantes), de biología marina e incluso en misiones de búsqueda y rescate.

ESTUDIO ESTACIONAL Y TEMPORAL: Debido al cambio climático y sus consecuencias se hace imprescindible evaluar el impacto sobre los afloramientos y su relación condicionante a la pesquería, y desde luego la relación entre atmósfera y los océanos.
De acuerdo a esto la metodología de teledeteccion ha llevado estudios de la costa del noroeste africano , en los cuales se han utilizado datos de TSM durante 20 años por el sensor AVHRR. Además, se han recabado datos de presión de viento a partir de los sensores AMI-Wind y SeaWinds a bordo de los satélites ERS-1/ERS-2 y QuikSCAT, respectivamente. Este estudio ha calculado el promedio temporal de la temperatura del mar y el índice de afloramiento en función de la latitud y la semana del año. Cuanto más negativo es el índice, mayor es la intensidad de afloramiento. Esto ha arrojado que el afloramiento es persistente a lo largo del año entre las latitudes septentrionales de 20° y 33°, aunque con menor intensidad en invierno. Entre 12° y 20°, el afloramiento muestra un claro comportamiento estacional: en verano desaparece completamente. 

DINÁMICA COSTERA: Para los fenómenos dinámicos es necesario el tratamiento de series multitemporales y multisensoriales  de imágenes de teledeteción. Así, uno de los aspectos de mayor importancia en oceanografía y, por tanto, la estimación de las velocidades superficiales de las corrientes. Estas velocidades desempeñan una función notable en un gran número de fenómenos relacionados con el océano y el clima. Por tanto mediante combinación de técnicas de segmentación y estimación de movimiento, se ha desarrollado una herramienta que permite obtener de forma fiable las corrientes superficiales a partir de secuencias de imágenes de teledetección. 




El océano esconde todavía secretos. Sin embargo, el lanzamiento de nuevos satélites de observación de la Tierra nos permitirá alcanzar un conocimiento cada vez más profundo de nuestros mares, que arrojará luz sobre los fenómenos oceánicos y su efecto sobre el clima.


resumen Investigación y Ciencia (febrero 2011

enero 24, 2011

ENTENDIENDO EL: S O C I A L M E D I A M A R K E T I N G

Aunque la mayoría de las organizaciones reconocen el potencial y la importancia de los medios sociales, no todas tienen claro cómo emplearlos para ser lo suficiente atractivas y generar confianza en los consumidores. Como resultado, muchas empresas no utilizan los medios sociales o lo hacen de manera incorrecta, sin tener en cuenta las consecuencias que pueden tener sus marcas.
Los consumidores, según el estudio, buscan en las empresas ques sean transparentes, aporten contenidos relevantes y, sobretodo, que se comporten más como amigos que como compañías. Los usuarios quieren dialogar con las marcas y que escuchen sus necesidades, en vez de recibir mensajes en los que no se tiene en cuenta lo que ellos piensan, sienten o quieren.
En resumen, el objetivo debe ser que las empresas tengan una cara humana y que no conviertan los medios sociales en un mercado de negocio. Esta última es una práctica frecuente entre las empresas más importantes, que tienen un portavoz que actúa como imagen de la marca.

Tarea urgente. Por otro lado, las empresas que quieran garantizar su supervivencia deben aprender a captar fans a través de las redes sociales (Facebook y Twitter) en Internet, porque es una nueva forma de comunicación con los consumidores. "Aquellas organizaciones que no entiendan que tienen que entroncar con sus comunidades, a través de Internet, van a desaparecer". Así de tajante es Salvador Suárez, socio director de la firma Territorio creativo, en una entrevista concedida a la agencia Europea Press.
"Aquellas organizaciones que no se den cuenta de que tienen que mantener una conversación con sus diferentes comunidades van a perder competitividad y presencia. El usuario quiere compartir, comunicarse y comentar sobre los productos", argumenta este especialista.
Suárez resalta que "los consumidores van mucho más rápido que las empresas", y pone espcial énfasis en que ya hay 550 millones de personas que cuentan con un perfil en Facebook. "Esto es un gran cambio y hay que entenderlo profundamente, finaliza"

ESTRAGOS ESTADÍSTICOS DEL 2010

KASPERKY
LOS CORREROS MALICIOSOS SE MULTIPLICAN
El 4.6 % por ciento de los correos electrónicos actualmente a los usuarios de todo el mundo son correos malicioso. Esta cifra constituye el mayor porcentaje registrado hasta el momento, según el informe del tercer trimestre de 2010 realizado por el fabricante de software de seguridad Kaspersky. Estados Unidos es, una vez más, el país que más spam envía, seguido de India y Vietnam. En cuarto lugar está Reino Unido, que hast ahora no figuraba en la lista de los diez países más mensajes no deseados remiten. La empresa Kaspersky señala que en el tercer trimestre de 2010 se pudieron cerrar 12 centros de administración de software malicioso, responsables de enviar 1l 10% del spam en todo el mundo.

APPLE
LA IDEA MÁS INNOVADORA DEL AÑO
Según la revista Time, la tablet de Apple es la idea electrónica mas innovadora de 2010, por la revolución que significó su aparición en el mercado tecnológico. La lista de Time está compuesta por 50 avances científicos. La tablet de Apple contribuye a difundir una nueva dimensión de la movilidad; además destaca por sus funciones táctiles y las posibilidades que ofrece su pantalla. También forman parte del ranking el vehículo autopiloteado de Google, el colectivo chino que pasa por encima del resto de los coches, el artilugio volador Martín Jetpack (que permite a un hombre remontar vuelo con ayuda de unos motores de propulsión), y la minicámara Looxcie (un pequeño aparato que se coloca junto al oído).

COMPUTADORA
LAS MÁS RAPIDAS DEL MUNDO
La lista de computadoras más rápidas del planeta – top500, elaborada cada dos meses por universidades alemanas y estadounidenses- ha confirmado, en su edición de noviembre del 2010, que la supercomputadora china Tanhe-1ª es la más rápida del mundo, acabado con casi dos décadas de dominio estadounidense y japonés. Según señaló la agencia oficial Xinhua, el ranking indica que la computadora, situada en el Centro Nacional de Supercomputación de la ciudad de Tianjin, es capaz de desatollar 2 670 billones de operaciones por segundo (2,67 petaflops por segundo), superando a la máquina que hasta que hasta ahora ostentaba el primer lugar, la Cray Jaguar estadounidense (1,75 petaflops por segundo).

INTELIGENTE ELITE
LOS USUARIOS MAC SON MÁS INTELIGENTES
De acuerdo a un estudio realizado en más de dos millones de usuarios de Internet, existe una diferencia de seis puntos de coeficiente intelectual a favor de los usuarios de computadoras MAC frente a los de una PC. Los fans de la manzana de Steve Jobs registran una media de 108 puntos de C.I., mientras que los usuarios de PC no pasan de 102. El análisis de los test de inteligencia ha sido realizado por Intelligente Elite. Su gerente señala: "Una posible explicación es que los productos de Apple son un 40% más caros que las PC, por lo que los usuarios de Apple tienen mayor poder adquisitivo. disponemos de estadisticas que relacionann el poder adquisitivo con el C.I."

enero 07, 2011

FUSIL XM25, LO ÚLTIMO EN FUSILES A PRUEBA POR EL EJERCITO NORTEAMERICANO EN AFGANISTAN

Los militares estadounidenses están ensayando en Afganistán el fusil ХМ25, una nueva arma de alta tecnología.
El fusil tiene un alcance efectivo de 700 metros y utiliza munición de 25 mm dotada de chips electrónicos. El telémetro láser integrado ayuda a determinar con alta precisión la distancia hasta el blanco.
El sistema computarizado del fusil permite a las municiones estallar un centímetro antes de llegar al blanco o dentro del blanco, o detrás del mismo. Es decir, la munición puede convertirse en metralla delante del enemigo atrincherado o a sus espaldas.

El sofisticado fusil, desarrollado por la empresa Heckler & Koch, se está ensayando en las zonas de mayor actividad bélica en Afganistán, adonde se planea suministrar 12.500 unidades de ese arma en 2014.



BHONAZGUNN