0

Satélite robótico para recoger basura espacial

El pasado mes de junio los astronautas de la Estación Espacial Internacional (ISS) tuvieron que desalojar la plataforma orbital y refugiarse en las naves Soyuz ante la amenaza de chocar con un objeto que se aproximaba. Se trataba de uno de los miles de restos de cohetes y satélites inutilizados que se mueven por la órbita terrestre. Cuando la alerta llegó, estaba demasiado cerca para poder maniobrar y corregir la órbita de la ISS, como suele hacerse cuando existe riesgo de colisión con algún objeto, de modo que se optó por evacuar la plataforma.

La basura espacial se está convirtiendo en un serio problema para el que las agencias espaciales y los gobiernos aún no tienen solución. El científico italiano Marco M. Castronuovo acaba de proponer un nuevo sistema basado en un satélite dotado de brazos robóticos que permitiría atrapar los fragmentos más peligrosos y llevarlos a una órbita más baja para que se destruyan con el roce con la atmósfera.

El sistema funcionaría de la siguiente manera: cuando el satélite se encuentra con su objetivo, se acopla a él por medio de un brazo robótico. Un segundo brazo coloca en el objeto uno de los cinco equipos propulsores que lleva el satélite. Después, el objeto se libera y el propulsor se activa para conducirlo a una órbita más baja, donde se destruirá cuando entre en contacto con la atmósfera. Una vez cumplida su misión, el satélite se dirige hasta su próximo objetivo para repetir la operación. Cuando haya utilizado los cinco equipos propulsores, el satélite irá al encuentro de una estación de recarga en órbita. Por medio de su brazo robótico se abastecerá de nuevos equipos propulsores y volverá al trabajo.

Según el proyecto de Marco M. Castronuovo, con este sistema sería posible eliminar cinco objetos peligrosos cada año. En los siete años de vida operativa que tendría el satélite, por tanto, podría recoger 35 de los restos de chatarra espacial considerados más peligrosos.

Aunque Castronuovo trabaja en la Agencia Espacial italiana (ASI), esta investigación, publicada en ‘Acta Astronautica’, se enmarca dentro de un proyecto de la Universidad Técnica de Delft (Holanda) en el que participan profesionales de 12 países y en el que la agencia italiana no está involucrada.

300 objetos peligrosos

Desde que se lanzó el Sputnik en 1957 el número de objetos que circulan por el espacio ha ido creciendo de forma espectacular. Para entender la gravedad basta dar una cifra: de los más de 15.000 objetos que los radares y telescopios han contabilizado en la órbita terrestre, sólo un 6% son satélites en activo. Aunque muchos son de pequeño tamaño, alrededor de 300 son lo suficientemente grandes para representar un peligro.

«En los últimos años se han hecho varios estudios sobre posibles técnicas para eliminar basura espacial (por ejemplo, utilizando el impulso de cables conductores atravesados por electricidad o el frenado mediante sistemas que aumentan la resistencia aerodinámica) pero ninguno de ellos ha sido probado», explica Marco Castronuovo.

Un problema de difícil solución

El investigador subraya que se trata de un problema muy complejo, tanto desde el punto de vista técnico como político y legal, a lo que se añade el alto coste económico: «¿Quién va a pagar por una tecnología así si no tiene ganancia económica?», se pregunta

«Técnicamente se necesitan muchas maniobras en órbita para alcanzar los objetos, para desplazarse hasta el siguiente y para bajar cada uno de ellos (la manera más fácil de eliminarlos es bajarlos para que se quemen por el roce en la atmósfera)», explica.

Para lograrlo es necesario un gran impulso, que puede lograrse mediante la propulsión química (la tradicional de los cohetes, para la que es necesaria mucho carburante y por tanto, una fuerte inversión) o bien sistemas de propulsión alternativos (cables conductores de electricidad o propulsión eléctrica). «Cada método tiene sus desventajas», afirma.

Las lagunas legales y las rencillas políticas también complican encontrar una solución: «No hay leyes que obliguen a los países ni a los propietarios de los objetos a retirarlos del espacio una vez que terminen su vida operativa. Aunque hay regulaciones de la ONU para los nuevos lanzamientos, son voluntarios y algunos países, como China y Rusia no quieren que se toque sus objetos», añade Castronuovo.

Por ello, este proyecto no sólo contempla cómo efectuar una misión de este tipo, sino también cómo llevarla a cabo de manera que pueda ser rentable y evite los problemas legales y políticos. Es decir, que resuelva el problema en todos sus aspectos.

Además, desde que se presentó este trabajo y se demostró la viabilidad técnica de la misión, el proyecto ha ido adelante y se han encontrado soluciones mejores: «Al final hemos considerado una flotilla de 24 satélites en 20 años», explica.

Respecto al presupuesto necesario para llevar a cabo un proyecto de estas características, con diversas fases y varios años de implantación, el científico italiano calcula que el coste del desarrollo rondaría los 140 millones de euros. El lanzamiento y el seguro sumarían otros 21 millones. Una vez que esté implantado, cada satélite costaría 38 millones de euros, a lo que habría que añadir el coste de las operaciones.

Peligro para los satélites

Castronuovo considera que los gobiernos y las agencias espaciales no están afrontando este problema de manera adecuada: «Y no sólo es mi opinión, sino también la de la mayoría de los expertos que hemos entrevistado con cuestionarios en la Conferencia internacional NASA-DARPA sobre basura espacial orbital celebrada en 2009 en Chantilly (EEUU)».

Y es que la chatarra espacial no sólo representa una amenaza para los astronautas, sino también para los costosos satélites de observación y para los sistemas de telecomunicaciones: «Si no se actúa rápidamente no se podrá evitar la reacción en cadena denominada ‘Kessler Syndrome’ (síndrome Kessler). Su nombre se debe al científico de la NASA que por primera vez previó que las colisiones en órbita producirían más y más fragmentos, que se convertirían en nuevos proyectiles.

Como consecuencia de ello, dentro de unas décadas algunas de las órbitas más utilizadas para la observación de la Tierra (las órbitas helio-síncronas, a unos 700-800 Kilómetros de altura) quedarán inutilizables por la cantidad de fragmentos grandes, y sobre todo, pequeños objetos que causarían inevitablemente impactos y la destrucción de los satélites», explica el investigador.

Si el proyecto de Castronuovo sale adelante, el primer satélite podría ser lanzado en 2016: «La tarea de eliminar los 300 objetos más peligrosos se completaría 20 años después», asegura.

Fuente: ElMundo

0

Especies que viven actualmente en la Tierra

Ocho millones, setecientas mil. Con un margen de error de «sólo» 1,3 millones. Es el nuevo cálculo del número de especies que viven actualmente en la Tierra. Se trata de la estimación más precisa jamás realizada. Hasta ahora, diversos estudios colocaban la cifra total en algún lugar indeterminado entre los tres y los cien millones de especies diferentes.

La nueva cifra acaba de ser anunciada por un equipo de investigadores del Censo de Vida Marina y se basa en una nueva técnica analítica que ha conseguido recortar de forma drástica las estimaciones anteriores. Del total anunciado, 6,5 millones de especies serían terrestres y unos 2,5 millones (cerca del 25%) marinas.

El estudio, que se publica en la revista PLos Biology, sostiene además que el 86% de las especies terrestres y el 91% de las marinas están aún a la espera de ser descubiertas, descritas y catalogadas. En efecto, el número total de especies descritas hasta ahora por la Ciencia ronda los 1,9 millones.

Para Camilo Mora, autor principal de la investigación, «la cuestión de cuántas especies existen ha intrigado a los científicos durante siglos y la respuesta, fruto de muchos estudios sobre su distribución y abundancia, es hoy particularmente importante debido a las actividades humanas y su influencia en el incremento de la tasa de extinciones. Muchas especies pueden desaparecer incluso antes de que lleguemos a conocer su existencia, su papel en los ecosistemas y su potencial contribución al bienestar del ser humano».

En palabras del coautor del estudio, Boris Worm, «si no conociéramos siquiera el orden de magnitud (¿Un millón? ¿Diez millones? ¿Cien millones?) del número de personas de un país, ¿cómo podríamos hacer planes para el futuro? Con la biodiversidad sucede lo mismo. La Humanidad se ha propuesto salvar a las especies de la extinción, pero hasta ahora teníamos una idea muy pobre de cuántas podía haber».

Como ejemplo, Worm se refiere a la Lista Roja de especies, recientemente actualizada por la Unión Internacional para la Conservación de la Naturaleza y que comprende un total de 59.508 especies, de las cuales 19.625 están seriamente amenazadas. Lo cual significa que este organismo internacional está monitorizando menos del 1% del total de las especies existentes.

Relaciones numéricas
Desde que el científico sueco Carlos Linneo publicara en 1758 el sistema (que aún se usa) para nombrar, clasificar y describir especies, cerca de 1,25 millones de ellas (un millón terrestres y 250.000 marinas) han sido descritas y han pasado a formar parte de las bases de datos de los científicos. A esta cifra es necesario añadir otras 700.000 que, a pesar de haber sido descubiertas, están aún pendientes de clasificación.

Hasta ahora, la estimación total del número de especies existentes se había basado en opiniones y especulaciones de diferentes expertos. Y las cifras, que no hay forma de comprobar, oscilaban entre los tres y los más de cien millones de especies diferentes.

Pero el doctor Mora y sus colegas han conseguido afinar ese número hasta los 8,7 millones a base de identificar diferentes patrones numéricos en el sistema de clasificación, que se basa en un sistema piramidal en el que las especies se juntan en géneros, los géneros en familias, las familias en órdenes, los órdenes en clases, las clases en filos, los filos en reinos y los reinos en dominios.

Así, analizando la distribución de las 1,25 millones de especies catalogadas hasta ahora, los investigadores descubrieron que entre ellas existen relaciones numéricas muy significativas.

En palabras de Sina Adi, uno de los autores del estudio, «descubrimos que utilizando estos números a partir de los grupos taxonómicos más altos (en la pirámide), podíamos predecir el número de especies. Nuestras conclusiones se ajustaron de forma muy precisa al número de especies que existen en una serie de grupos muy bien estudiados, como los mamíferos, los peces o las aves, lo cual nos dió una gran confianza en el método».

Los eucariontes
Al aplicar el sistema a los cinco reinos conocidos de eucariontes (el dominio que incluye a todos los organismos constituidos por células formadas por estructuras complejas en el interior de una membrana) los resultados fueron los siguientes:

1- 7,77 millones de especies de animales (de las cuales 953.434 han sido ya descritas y catalogadas).

2- 298.000 especies de plantas (de las cuales 215.644 han sido ya descritas y catalogadas).

3- 611.000 especies de hongos (de las cuales 43.271 han sido ya descritas y catalogadas).

4- 36.000 especies de protozoos (de las cuales 8.118 han sido ya descritas y catalogadas).

5- 27.500 especies de chromista (de las cuales 13.033 han sido ya descritas y catalogadas).

El total arroja 8,74 millones de especies eukariotas en la Tierra.

Los investigadores aseguran que, a medida que se vayan catalogando nuevas especies, su método irá proporcionando estimaciones cada vez más precisas.

Lo cual, por cierto, no será una tarea facil. De hecho, y basándose en los costes y técnicas actuales de clasificación, el estudio considera que para identificar y catalogar todas las especies que faltan serán necesarios unos 1.200 años de trabajo de más de 300.000 taxonomistas, con un coste aproximado de 364.000 millones de dólares. Una tarea ingente que, sin embargo, se verá facilitada por las nuevas técnicas de identificación genética, que reducen considerablemente tanto los costes como el tiempo necesario para la identificación de una nueva especie.

«Con el reloj de la extinción de muchas especies en marcha -concluye Camilo Mora- creo que acelerar el inventario de las especies de la Tierra es una tarea que merece ser prioritaria para los científicos y para la sociedad en general».

Fuente: ABC

0

Niño de 13 años podría revolucionar la energía solar

Algunos descubrimientos trascendentales para la ciencia tienen lugar de forma casual. Quizás la historia de Newton, la manzana que cae y el descubrimiento de la forma en que funciona la gravedad sea apócrifa, pero el descubrimiento de Aidan Dwyer es absolutamente real. Este estudiante de solo 13 años de edad, paseando por un bosque, descubrió que si se orientan las celdas fotovoltaicas respecto del Sol de una determinada manera, su rendimiento puede mejorar entre un 20% y 50%.

Parece que la disposición de las ramas de los árboles, relacionada con la serie de números descrita en el siglo XIII por el matemático italiano Leonardo de Pisa (también conocido como Fibonacci) no es causal, y permite maximizar el aprovechamiento de la energía solar.

Hay historias relacionadas con la ciencia que parecen extraídas del argumento de una buena novela, y esta es una de ellas.

Un joven estudiante estadounidense de séptimo grado llamado Aidan Dwyer estaba dando un paseo por los bosques de las Catskill Mountains, al norte del estado de Nueva York, cuando notó que las ramas desnudas de los árboles no estaban orientadas al azar.

Esto es algo que generalmente pasa desapercibido para el 99% de las personas, y seguramente para prácticamente todos los niños.

 Pero Aidan lo notó, y después de investigar un poco “descubrió” algo de lo que ya se ha hablado en NeoTeo: la pauta de distribución de las hojas en las ramas y de las ramas en el tronco de muchos árboles siguen la denominada Sucesión de Fibonacci, una serie de números descrita en el siglo XIII por el matemático italiano Leonardo de Pisa.

En efecto, desde hace mucho se sabe que la naturaleza utiliza con frecuencia esta serie de números en sus “diseños”, en la que cada término es la suma de los dos anteriores (1, 1, 2, 3, 5, 8, 13, 21, 34… o Fn = Fn-1 + Fn-2).

Desde la distribución de las hojas de una lechuga hasta el número de conejos que podemos esperar tener después de una determinada cantidad de generaciones, pasando por número de individuos existente en cada generación de ancestros de un zángano, pueden explicarse a partir de esta serie. Pero esto es algo que la mayoría de los niños de 13 años suelen ignorar.

Aidan Dwyer lo notó, y tuvo la genial idea de relacionar este hecho con la “dependencia” de la energía solar que tienen los árboles.

 Puso manos a la obra, y construyó dos pequeños captadores solares compuestos por un puñado de células fotovoltaicas para ver si la forma en que las ramas crecían en los árboles tenía realmente alguna influencia en la cantidad de luz que cada hoja recibía. Uno de los modelos agrupaba los pequeños paneles siguiendo una distribución plana, igual a la que normalmente utilizamos para acomodar las células sobre cualquier techo. El segundo reproducía el patrón que el niño había observado en las ramas de los árboles.

Aidan, una celebridad

El resultado fue asombroso. Con esta redistribución, el segundo panel -el que copia a la naturaleza- permite generar como mínimo un 20% más de energía. En más: en determinadas épocas del año, como el invierno, este rendimiento se incrementa hasta alcanzar el 50% por sobre la distribución plana de toda la vida. Esto ha convertido al pequeño en toda una celebridad, y ha “estimulado” a sus padres a patentar el descubrimiento.

Se trata de una de esas historias de las que cualquiera podría haber sido el protagonista, ya que todos nosotros hemos visto miles de árboles, pero no ha sido hasta que Aidan puso sus neuronas a trabajar que hemos descubierto esto. Por supuesto, la mejora en el rendimiento se da cuando comparamos esta distribución respecto de un panel solar tradicional fijo. Aquellos paneles motorizados que giran a lo largo del día para “apuntar” al Sol son bastante más eficientes que los que tienen sus celdas distribuidas según la Sucesión de Fibonacci, pero requieren de un motor y energía extra para moverse.

El final de esta historia es el previsible. Aidan ha conseguido un reconocimiento por su descubrimiento, otorgado por el Museo Americano de Historia Natural, se ha registrado una patente, y más de cuatro investigadores “serios” deben estar dando cabezazos contra la pared. Esperemos que el trabajo de este avispado niño nos permita en algún momento del futuro cercano independizarnos de la energía generada quemando combustibles fósiles

Fuente: ABC

0

¿Está cambiando el tamaño de la Tierra?

Desde los tiempos de Charles Darwin, los científicos se han preguntado si la Tierra podía expandirse o contraerse. Esta era la creencia habitual hasta que fue aceptada, hace medio siglo, la teoría de la tectónica de placas, que explica los movimientos a gran escala de la capa terrestre más externa, la litosfera. Pero incluso así, siguió planeando la duda sobre el cambio de talla del mundo. Ahora, un nuevo estudio de la NASA ha terminado con esas especulaciones. Utilizando un grupo de herramientas de medición espacial y una nueva técnica de cálculo, los investigadores han confirmado que la parte sólida de nuestro planeta no se expande ni se contrae, a pesar de los movimientos de las placas, los terremotos o las explosiones volcánicas. De acuerdo con el estudio, publicado en la revista Geophysical Research Letters, el cambio en el radio de la Tierra es de 0,1 milímetros al año, aproximadamente el grosor del cabello humano.

Los científicos se interesan particularmente por el tamaño de la Tierra porque cualquier cambio significativo en su radio alteraría nuestra comprensión de los procesos físicos del mundo. Además, resulta fundamental para la rama de la ciencia llamada geodesia, que busca medir la forma y el campo de gravedad de la Tierra y cómo estos cambian con el tiempo.

Para realizar este tipo de mediciones, la comunidad científica mundial estableció el Marco de Referencia Terrestre Internacional, que se utiliza en la navegación terrestre, el seguimiento de las naves espaciales o para el estudio de muchos aspectos del cambio climático global, incluyendo el aumento del nivel del mar y los desequilibrios en las masas de hielo en los polos. Sin embargo, la medición de cambios en el tamaño del mundo no ha sido precisamente fácil para los científicos. Después de todo, no se puede envolver el mundo en una cinta métrica gigante. Por eso, se utilizan herramientas muy sofisticadas, como satélites de telemetría por láser -una red de observación mundial que mide, con milimétrica precisión, el tiempo que les lleva a pulsos de luz ultracortos viajar de estaciones terrestres a satélites especialmente equipados con retroreflectores-, interferometría de base muy larga -el uso varios telescopios para observar un objeto de forma simultánea-, GPS, etc.

Nuevo procedimiento
El equipo de investigadores encabezado por Xiaping Wu, del Laboratorio a Propulsión a Chorro de la NASA (JPL, por sus siglas en inglés) aplicó un nuevo procedimiento informático de cálculo para estimar la tasa de cambio en el radio medio de la Tierra sólida en el tiempo, teniendo en cuenta los efectos de otros procesos geofísicos. Estos datos, obtenidos con las técnicas citadas anteriormente, se combinaron con las mediciones del satélite GRACE de la NASA y los modelos de la presión del fondo oceánico, que ayudan a los científicos a interpretar datos de cambio en la gravedad sobre el océano.

¿El resultado? Los científicos estimaron que el cambio promedio en el radio de la Tierra es de 0,1 milímetros por año, o aproximadamente el grosor de un cabello humano, una tasa considerada estadísticamente insignificante. «Nuestro estudio proporciona una confirmación independiente de que la Tierra sólida no es cada vez más grande en la actualidad», dijo Wu

0

Diseñan células asesinas antitumorales

Los resultados de un estudio, que se publica simultáneamente en The New England Journal of Medicine y en Science Translational Medicine, son la primera demostración de que el uso de la terapia de transferencia génica para crear células T que actúen como un «asesino en serie» dirigido exclusivamente a las células tumorales es una alterantiva válida para tratar algunos tipos de cánceres.

Según los editores de estas publicaciones, los resultados pueden considerarse como uno de los grandes avances en el tratamiento del cáncer generado en los últimos 20 años, ya que este tratamiento ha logrado una remisión sostenida de hasta un año entre un pequeño grupo de pacientes con leucemia linfocítica crónica avanzada.

Los pacientes fueron tratados con versiones genéticamente modificadas de sus propias células T. Previamente, los científicos del Centro del Cáncer Abramson de la Universidad de Pennsylvania y de la Escuela de Medicina Perelman (EE.UU.) habían extraído las células de los pacientes y éstas habían sido modificadas genéticamente; posteriormente, dichas células modificadas se introdujeron de nuevo en paciente después de que hubiera recibido quimioterapia. Además, los resultados, aseguran los autores, «ofrecen una hoja de ruta para el tratamiento de otros tipos de cáncer como pulmón, ovario, mieloma o melanoma».

«En tan sólo tres semanas, los tumores habían sido eliminados, de una forma mucho más potente de lo que esperábamos», explica el autor principal, Carl June. «Funcionó mucho mejor de lo que pensábamos».

Los resultados del ensayo piloto realizado en tres pacientes son un claro contraste de las terapias existentes en leucemia linfocítica crónica. Los sujetos que participaron en el estudio tenían pocas opciones de tratamiento; la única terapia curativa potencial habría implicado un trasplante de médula ósea, un procedimiento que requiere una hospitalización prolongada y tiene un riesgo de mortalidad del 20%, y una probabilidad de curación de tan solo el 50% en el mejor de los casos.

Ingredientes secretos

June habla de «ingredientes secretos» que marcaron las diferencias entre los resultados mediocres que se habían observado en estudios previos con células T modificadas y la respuesta observada en este ensayo. Se refiere June, según explica en Science Translational Medicine, a que una vez extraídas las células de los pacientes, se reprogramaron genéticamente para atacar a las células tumorales mediante un vector lentivirus. El vector, explica June, codifica para una proteína similar a un anticuerpo, denominado receptor de antígeno quimérico (CAR), que se expresa en la superficie de las células T y que está diseñado para unirse a una proteína llamada CD19.

Una vez que las células T comenzaron a expresar el receptor de antígeno quimérico centraron toda su actividad «asesina» en destruir las células que expresan CD19, que incluían las células tumorales de la leucemia linfocítica crónica y las células B normales. Todas las otras células del paciente que no expresan CD19 eran ignorados por las células T modificadas, lo que limita los efectos secundarios del tratamiento.

Pero, los investigadores diseñaron una molécula de señalización en el interior del receptor de antígeno quimérico que, cuando se une a CD19, además de iniciar la muerte de las células cancerosas, también le dice a la célula que produzcan citoquinas que activan a otras células T para que se multipliquen y fabricar así un «un ejército» cada vez más grande, hasta que todas las células diana tumorales son destruidas.

Miles de células
«Hemos visto un aumento de más de mil en el número de células T modificadas en cada uno de los pacientes. Los fármacos no hacen eso», señala June. Además de una amplia capacidad para la autoreplicación, «las células T modificadas son asesinos en serie; cada una de ellas es capaz de matar miles de células tumorales».

La importancia de esta aproximación se ilustra en el estudio que publica The New England Journal of Medicine, donde se describe la respuesta de un paciente, un varón de 64 años. Antes del tratamiento con células T estaba invadido de células tumorales y, aunque en las dos primeras semanas de tratamiento nada había cambiado, a partir de la segunda semana el paciente comenzó a experimentar síntomas como escalofríos, náuseas y fiebre. Cuando se analizó su sangre en este periodo se descubrió un brutal incremento en el número de células T que provocó un síndrome de lisis tumoral, que ocurre cuando un gran número de células cancerosas mueren a la vez. A los 28 días, el paciente ya se había recuperado del síndrome y no había muestras de la enfermedad, ni en su sangre ni en su la médula.

A largo plazo
A pesar de que se desconoce la viabilidad a largo plazo del tratamiento, los médicos han encontrado pruebas de que meses después de la infusión, las nuevas células se habían multiplicado y eran capaces de continuar su misión de eliminar las células cancerosas a través del organismo de los pacientes.

En el futuro, los investigadores quieren probar el tratamiento en otros tumores CD19-positivo, incluyendo el linfoma no Hodgkin y la leucemia linfocítica aguda. También planean estudiar el enfoque en pacientes con leucemia pediátrica que han fracasado la terapia estándar.