Terrafugia Transition, el primer coche volador que culmina las pruebas y que podría venderse este mismo año

Terrafugia Transition, el primer coche volador que culmina las pruebas y que podría venderse este mismo año:

Toda la vida soñando con que llegaríamos al año 2000 y nuestros cielos estarían surcados por coches voladores y aquí estamos, en pleno 2012 y ni flores. Sin embargo uno de los múltiples proyectos de coche volador parece hoy estar un poco más cerca de convertirse en realidad. Se trata del Terrafugia Transition, que ha completado con éxito su primer vuelo de prueba en el aeropuerto neoyrquino de Plattsburgh y que podría comenzar su comercialización a finales de este mismo año.
Siendo más escrupulosos con el uso preciso del lenguaje cabría hablar no tanto de coches voladores como de aviones rodantes.
En realidad más que automóviles capaces de salir volando gracias a unas alas que salen de algún sitio de su carrocería, estos ingenios son más bien aeroplanos que una vez en tierra firme pliegan alas y/o hélices y pueden circular por carreteras convencionales en medio del tráfico rodado. De hecho como en el caso que nos ocupa funciona con gasolina sin plomo es ideal para acercarte a la gasolinera más cercana a reponer combustible.

En este sentido su depósito tiene una capacidad de 87 litros y el consumo en vuelo es de unos 20 litros por hora (a velocidad de crucero de unos 170 km/h) mientras que en carretera no es demasiado económico (debido probablemente a la pérdida de penetración aerodinámica de las alas plegadas) consumiendo algo más de unos 8 litros/100 kms
El Terrafugia Transition durante su primer vuelo de prueba estuvo 8 minutos en el aire y alcanzó unos 425 metros de altitud. Las últimas noticias que habíamos tenido de este ingenio datan del verano pasado, cuando la autoridad nacional USA para la seguridad vial había permitido el empleo de ventanillas de policarbonato (en lugar del cristal laminado habitual de los automóviles) y ruedas especiales. También se ha obviado los 50 kilos de exceso de peso que le obligarían a estar clasificado como Aeronave Deportiva Ligera para la administración aérea de los Estados Unidos de América.
Con estos beneplácitos estaría previsto que se inicie la producción antes de que acabe este año 2012 comercializándose con un precio en torno a 195.000 €. El público al que está destinado principalmente el Terrafugia es aquel que reside en zonas aisladas a las que no resulta sencillo llegar por medios de locomoción terrestre y que se comunican mediante avión, barcos, ferrys…

No es el único vehículo que recientemente ha cumplimentado exitosamente sus vuelos de prueba. El PAL-V (acrónimo en inglés de Vehículo Personal Aéreo y Terrestre) de fabricación holandesa también lo ha conseguido. Al parecer es tremendamente sencillo de manejar, sólo haría falta un curso de unas 20/30 horas para conseguirlo, pero aún no hay planes para comercializarlo. En este caso más que tomar como modelo el avión ha sido el helicóptero, prescindiendo de alas y centrándose en un rotor.
Quizá el hecho de que sea ahora y no hace una década larga cuando más cerca estemos de ver estos vehículos sobrevolar nuestras cabezas se deba a los recientes avances en la ciencia de materiales. Hace 50 años la fibra de carbono no existía. El Terrafugia pesa menos de 450 kilos y un automóvil moderno (sin alas) ya pesa más del doble. ─[Extremetech]

Un nuevo sistema ayuda a los agricultores a regar de forma eficiente

Un nuevo sistema ayuda a los agricultores a regar de forma eficiente: Medir correctamente la evapotranspiración, (la suma del agua que se desprende al ambiente por evaporación directa y por la transpiración de las plantas) es uno de los grandes desafíos que tienen los agricultores, ya que estos factores son la base para establecer previsiones óptimas de riego. Un equipo internacional de investigadores, entre los que se incluyen científicos de la UPM, propone ahora un nuevo modelo para considerar fenómenos casi inapreciables, como la niebla, el rocío o la lluvia fina, para aumentar la eficiencia del riego de los cultivos. UPM/T21.

Un nuevo sistema ayuda a los agricultores a regar de forma eficiente
Medir correctamente la evapotranspiración, (la suma del agua que se desprende al ambiente por evaporación directa y por la transpiración de las plantas), es uno de los grandes desafíos que tienen los agricultores, ya que estas cifras son la base para establecer sus previsiones de riego.

Hasta el momento, había variables que no se tenían en cuenta en estas mediciones. Entre ellas está el agua aportado por fenómeno…

Tendencias 21 (Madrid). ISSN 2174-6850

Transforman el dióxido de carbono en combustible usando la electricidad

Transforman el dióxido de carbono en combustible usando la electricidad: Ingenieros e investigadores de la Universidad de California en Los Ángeles (UCLA) han desarrollado un método que permite convertir dióxido de carbono en combustible líquido (isobutanol), a través del uso de electricidad. El combustible generado puede emplearse en los sistemas de transporte sin requerir variantes en la tecnología actual, algo que resulta muy beneficioso frente a los problemas de almacenamiento que aún conlleva la energía eléctrica. Por Pablo Javier Piacente.

Transforman el dióxido de carbono en combustible usando la electricidad
La combinación de electricidad y el dióxido de carbono podría transformarse en una solución para la producción de combustibles alternativos, gracias a un sistema ideado por especialistas de la Universidad de California en Los Ángeles (UCLA). El mecanismo creado logra transformar el dióxido de carbono en un combustible apto para su uso en vehículos con la tecnología actual, empleando electricidad en el proceso. Sería una salida interesante hasta que se optimicen los sistemas d…
Tendencias 21 (Madrid). ISSN 2174-6850

Actualidad exoplanetaria

Actualidad exoplanetaria:
Cada vez parece más probable que haya planetas con vida. Nuevos instrumentos quizás lo confirmen algún día.

Foto
Recreación artística de la hipotética superficie de un exoplaneta. Fuente: ESO.

En los últimos días se han producido diversos resultados sobre el estudio de exoplanetas. Relatamos algunas de ellos a continuación.
La ventaja de ir descubriendo nuevos exoplanetas es que con el tiempo se puede recopilar una buena estadística y así estimar la abundancia de estos objetos y entre ellos los que pueden ser propicios para la vida. El equipo HARPS de ESO ha estado recopilando información, entre otros casos, sobre las supertierras que orbitan alrededor de las estrellas enanas rojas (estrellas tipo M), estrellas que suponen el 80% de las estrellas de nuestra galaxia. En una campaña reciente han estado vigilando 102 estrellas de este tipo en busca de exoplanetas, encontrando 14 planetas, 12 de ellos supertierras. Pero este tipo de medidas sólo detecta los planetas cuyas órbitas está de canto respecto a nuestra perspectiva, así que si se hacen las cuentas debe haber muchos más planetas de este tipo.

Pues bien, los investigadores implicados estiman que en la Vía Láctea debe haber decenas de miles de millones de planetas de tipo rocoso en la zonas habitables de estas estrellas [1], [2].

HARPS se basa en las velocidades radiales detectadas por Doppler. Usa un espectrómetro ultrapreciso y un telescopio de 3,6 metros situados en el observatorio del ESO en La Silla (Chile). Es capaz de detectar velocidades radiales de sólo 4 km/h (menos de la velocidad a la que un humano camina). En ocho años de funcionamiento HARPS ha descubierto más de 150 exoplanetas.

Hace un tiempo cubríamos en NeoFronteras una noticia procedente de la misma fuente en la que se apunta a que la mayoría de los miles de millones de estrellas naranjas-amarillentas de nuestra galaxia tienen planetas a su alrededor [3]. Estos resultados, junto con otros similares elevan las perspectivas de que haya vida en otros lugares del Universo, o al menos en nuestra galaxia.

Según este nuevo resultado el 40% de las enanas rojas tiene una supertierra orbitando en la zona habitable, región en la que hay condiciones para que haya agua líquida. Como son estrellas muy abundantes en nuestra galaxia esto significa que hay muchísimos de estos planetas con posibilidades para la vida. HARPS ya descubrió exoplanetas dentro de las zonas habitables de Gliese 581 y Gliese 667 C. El planeta Gliese 667 Cc está situado justo en el centro de la zona habitable y tiene una masa que sólo es cuatro veces la de la Tierra.

Por otro lado, los planetas gaseosos gigantes similares a Júpiter o Saturno son escasos en este tipo de estrellas y sólo se presentan en un 12% de las ocasiones.

En la vecindad de nuestro sistema solar, es decir, a una distancia de 32 años luz o menos del Sol, hay probablemente un centenar de supertierras en la zona habitable de enanas rojas.

Pero que estos planetas estén en la zona de habitabilidad tampoco significa que la vida sea fácil en estos cuerpos. Las enanas rojas tienen violentas erupciones, sobre todo en su juventud, que producen abundante cantidad de rayos X y ultravioletas, que son dañinos para la vida.

Las órbitas son tan cercanas a la estrella que además es muy fácil que el planeta presente siempre la misma cara a la estrella. Aunque ciertos modelos climáticos predicen que es posible que en esos planetas no tengan una cara abrasada y la otra congelada.

En el futuro quizás se pueda analizar la composición de las atmósferas de estos exoplanetas y saber más sobre sus condiciones para la vida.

Se está planeando mejorar el hardware y el software de este instrumento para hacerlo aún más sensible. Esto permitiría detectar planetas de tipo rocoso con la capacidad de poder soportar vida sobre su superficie antes de 5 años. Además se planea instalar una copia de este mismo sistema en el telescopio Galileo en las Islas Canarias para así estudiar también el hemisferio norte.

Incluso se planea instalar un nuevo y más potente sistema, denominado ESPRESSO, en el telescopio VLT que tiene la ESO en Chile. En un futuro lejano se instalaría el CODEX en el telescopio extremadamente grande (E-ELT) que se está planeando construir. Se cree que con el E-ELT se podrán ver exoplanetas directamente y buscar biomarcadores que indiquen la presencia de vida.
Entre todos los cientos o miles de exoplanetas detectados con y sin confirmación hay que añadir dos nuevos a la lista que son realmente muy especiales. Un grupo de astrónomos europeos ha detectado un sistema planetario que es superviviente de los primeros que se formaron en el Universo [4]. El sistema tiene nada menos que 13.000 millones de años y se encuentra a 375 años luz de nosotros. La estrella HIP 11952 tiene al menos dos planetas orbitando con periodos de 7 y 290 días. Esta estrella es muy pobre en elementos pesados. Los elementos pesados no se formaron durante el Big Bang, sino por sucesivas generaciones de estrellas. Es precisamente la composición de la estrella la que hace pensar en su extrema edad.

Las nuevas estrellas que se van formando con planetas a su alrededor como subproducto, y son cada vez más ricas en elementos pesados en sucesivas generaciones. Durante su vida las estrellas transmutan elementos ligeros en pesados gracias a las reacciones de fusión produciendo energía. Cuando más masiva sea la estrella más rápidamente gasta su combustible nuclear y antes enriquece el medio con elementos pesados.

Lo que es difícil de explicar es cómo se pudieron formar planetas en este sistema al casi carecer de elementos pesados. Se cree que cuanta mayor sea la cantidad de elementos pesados que haya en la nebulosa de formación mayor será la probabilidad de que se formen planetas.

No es la primera vez que se encuentran planetas alrededor de estrellas con tan baja metalicidad, por tanto que ocurra algo así es más probable de lo que los astrónomos pensaban.

Otro caso similar fue el de HIP 13044 que es famosa por portar exoplanetas de otra galaxia, ya que la estrella forma parte de un chorro estelar procedente de una galaxia que fue absorbida por la nuestra hace miles de millones de años.

Como HIP 11952 tiene 12800 millones de años, se formó cuando nuestra galaxia se estaba formando, así que se puede decir que esos planetas son tan viejos como nuestra propia galaxia.

Habrá que refinar las teorías de formación planetaria para poder explicar este tipo de casos.

De todos modos no se sabe la composición de estos planetas ni si un planeta similar en la zona de habitabilidad pudo contener vida de algún tipo. Pero algo así nos hace sospechar que la aparición de la vida en el Universo por primera vez pudo darse hace ya mucho tiempo.
El problema que tenemos sobre la detección de planetas propicios para la vida es que nuestras técnicas favorecen la detección de planetas grandes que orbitan cerca de su estrella. Incluso cuando se habla de planetas alrededor de enanas rojas en realidad se está hablando de estrellas cuya baja masa relativa y poca luminosidad favorece la detección de exoplanetas, tanto por el método de velocidad radial como por el método de tránsito.

Otro método de detección es el de la microlente gravitatoria, efecto según el cual la luz de una estrella lejana es intensificada por la distorsión del espacio producida por el campo gravitatorio de una estrella y sus planetas que se encuentren a medio camino de nosotros.

No hace falta decir que la posibilidad de tal alineación es muy reducida. Además no es fácil predecir los movimientos de los cuerpos implicados. De nada sirve si se produce un fenómeno de este tipo y no estamos apuntando con un telescopio en ese momento. Se necesita predecir la posición de la estrella que está a medio camino y esto no es fácil salvo que la estrella se encuentre realmente cerca. Justo es en esta situación cuando se habla del efecto de mesolente gravitatoria. Lo más interesante es que en esta situación el efecto de aumento de la luz se produce en una zona más amplia.

Esto es precisamente lo que se ha explorado en unos artículos recientes [5], [6] por parte de Rosanne Di Stefano, James Matthews y Sebastien Lepine. Al parecer es posible predecir lo suficientemente bien la posición de estrellas cercanas como para saber si se va a producir un fenómeno de mesolente. Con este sistema se podrían detectar planetas en estrellas cercanas e incluso estimar sus masas.

Estos investigadores sugieren que un buen candidato para ensayar este nueva técnica sería la estrella de baja masa VB 10 situada a 19 años luz de nosotros. Especulan que el Hubble quizás haya detectado este efecto en esta estrella.

Pero de nada nos sirve tener una colección de exoplanetas de los que sólo conocemos sus parámetros orbitales y masa (en el mejor de los casos). Incluso que un exoplaneta esté en la zona habitable no significa que necesariamente haya vida en él. Para poder comprobar este punto habría que analizar la atmósfera del exoplaneta en cuestión y encontrar algún tipo de desequilibrio químico.

El éxito de la misión Kepler está haciendo que la NASA estudie nuevas misiones para precisamente analizar atmósferas de exoplanetas de tipo rocoso en la zona habitable [7]. Tarde o temprano la misión Kepler encontrará algunos de estos objetos y querremos saber si contienen vida.

Para poder analizar las atmósferas planetarias necesítanos hacer espectroscopia y a veces ni siquiera hace falta tener que aislar la luz débil y reflejada del planeta del resplandor estelar. La espectroscopia de tránsito permite precisamente esto. El planeta pasa por delante y por detrás de la estrella y la resta de los espectros en esas dos posiciones permite extraer el espectro propio de la atmósfera planetaria y saber así su composición

Una de las misiones que se están planeando sería FINESSE (Fast INfrared Exoplanet Spectroscopy Survey Explorer) y trabajaría en la parte infrarroja del espectro.

Otra posible misión sería TESS (Transiting Exoplanet Survey Satellite) que estaría pensada específicamente para buscar exoplanetas en una esfera centrada en nosotros y de 50 años luz de radio. Esta cercanía permitiría el estudio en detalle de los posibles exoplanetas.

Estas posibles misiones y otras similares no solamente nos dirán dónde hay exoplanetas, sino que además nos dirán de qué están hechas sus atmósferas, si tienen nubes o cómo puede ser su superficie (si tienen continentes y océanos).

Hay expertos que esperan nuevas sorpresas del estudio del estudio de exoplanetas en zona habitable, incluso resultados revolucionarios. Sólo sabemos cómo interacciona la vida con el ambiente planetario en un caso (en la Tierra), quizás en otros lugares sea distinto. Normalmente la Naturaleza es más diversa de lo que anticipamos.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3789

Un asteroide nos rozó el pasado domingo

Un asteroide nos rozó el pasado domingo:
Asteroide
El pasado Domingo de Ramos pasó el asteroide 2012 EG5 a 0.6 LD de nuestro planeta. Es decir, a 0.6 distancias lunares, lo que significa que este asteroide ha pasado más cerca de la Tierra de lo que está la Luna en su órbita.
Esta roca espacial tiene casi 50 metros de diámetro, según el programa de seguimiento de objetos cercanos del JPL (Jet Propulsion Laboratory), situado en la NASA. Según sus cálculos, este objeto ha pasado a una distancia de 230.000 kilómetros de la Tierra, mientras que nuestro satélite orbita a unos 382.000 kilómetros. Es decir, casi la mitad de distancia.

En astronomía, los objetos que se aproximan a la Tierra suelen ser cometas y asteroides que quedan atrapados en la órbita del Sol o en la de diferentes planetas, penetrando en las cercanías de la Tierra.
Se conoce como Asteroide Apolo a cualquier asteroide con una órbita con un semieje mayor al de la Tierra: 1 Unidad Astronómica, o lo que es equivalente, la distancia media entre la Tierra y el Sol, unos 150.000.000 km.
La comunidad científica afirma que aquellos objetos que se acercan a nuestro planeta a una distancia entre 3 y 4 veces la distancia de la Tierra y la Luna pueden verse afectados por la gravedad de la Tierra, por lo que es importante vigilarlos con suma atención.
No es el primer asteroide que hemos visto estos días. La semana pasada, otros dos asteroides más pequeños pasaron por nuestro sistema solar en su peregrinaje por el Universo.
¿Creéis que algún día nos ocurrirá lo mismo que en la película Armageddon y tendremos que reclutar a un equipo explota-asteroides?
photo credit: Lights In The Dark via photopin cc

Descubierto un sistema planetario de 13.000 millones de años

Descubierto un sistema planetario de 13.000 millones de años: Un sistema planetario de 13.000 millones de años ha sido descubierto por astrónomos alemanes, formado por una estrella y dos planetas, situado a unos 375 años luz de la Tierra. La estrella que orbitan estos dos planetas es extremadamente antigua y sin materiales pesados, lo que cuestiona los mecanismos de formación planetaria que se consideran válidos en la actualidad. (CORDIS/T21)

Descubierto un sistema planetario de 13.000 millones de años
Astrónomos alemanes han descubierto un sistema planetario ancestral que podría haber sobrevivido a una de las primeras eras galácticas hace 13 000 millones de años. El sistema está compuesto por la estrella HIP 11952 y dos planetas. Un sistema de esta antigüedad permitiría aclarar aspectos de la formación planetaria durante el Universo primigenio, procesos que se produjeron en condiciones muy distintas a las que imperaban cuando se formaron otros sistemas planetarios como el Solar.

La teoría planetaria aceptada afirma que, en términos generales, una estrella que contiene más «metales» (elemento…

Tendencias 21 (Madrid). ISSN 2174-6850

Avira lanza software antivirus gratuito para Mac OS X

Avira lanza software antivirus gratuito para Mac OS X:
Pese a que los virus y códigos maliciosos son pan de cada día bajo los sistemas operativos Windows, los usuarios de Mac OS X no deberían estar tan tranquilos ni sentirse inmunes a estas amenazas, ya que si bien el esfuerzo de los piratas informáticos está enfocado hacia Microsoft, nada evita que la plataforma Apple también sea atacada: sólo depende del interés de los crackers.
Es por esto que Avira ha lanzado hace algunas horas su solución de antivirus para Mac, bajo el nombre de “Avira Free Mac Security”. Tal como se lee en esta denominación, el servicio es gratuito para todos los usuarios de la manzana mordida, otorgando un software de clase mundial que se eleva alto en los rankings de los mejores paquetes de seguridad en el mercado para Windows.
Puede que por el momento no sea tan urgente acudir a estos programas para protegerse del malware, ya que en Mac los virus no son muy populares por el momento, aunque se han visto casos recientes donde amenazas han logrado hacerle pasar un susto incluso a Apple.
Eso sí, Avira precisa que no sólo existen amenazas específicas para OS X, sino que en algunos casos estos equipos sirven para transportar código hacia máquinas con Windows, dándole otra razón a los usuarios para descargar su software.
Link: Avira Launches Free Antivirus Software for Mac Platform (Hot Hardware)

Saca al Scotty que llevas dentro con el Tricorder de código abierto

Saca al Scotty que llevas dentro con el Tricorder de código abierto:
Filed under:

Hace algo así como un año la gente de la fundación X-Prize y Qualcomm se reunieron en un remoto asteroide del Cuadrante Gamma para dar forma a un nuevo desafío incentivado con 10 millones de dólares: el desarrollo de un dispositivo capaz de diagnosticar dolencias “mejor o igual que un grupo de médicos acreditados”, igual que los tricorders de Star Trek. Tan impresionante recompensa podría estar ahora más cerca de tus manos gracias al trabajo desinteresado del doctor Peter Jansen, un friki colegiado que ha liberado los diseños de sus tricorders caseros.

El Mark 2, que pasa por ser el más moderno de los dos modelos que ha creado hasta el momento, integra un procesador ARM9 Atmel y dos pantallas OLED de 2,8 pulgadas en una carcasa plegable, que también tiene espacio para albergar 32 GB de memoria RAM, un puerto USB, una antena WiFi y un lector de tarjetas microSD utilizado para ejecutar Debian. Su alimentación depende de seis pilas AAA (ahora nos falla la memoria, pero no recordamos a Data o Scotty con un paquete de baterías Evolta en el cinturón), y los sensores integrados en el hardware permiten detectar cambios de temperatura, humedad, presión atmosférica, iluminación ambiental, distancia y campos magnéticos. Por lo visto aún no es capaz de diagnosticar enfisemas o hallar yacimientos de dilitio, pero solo tendrás que sacarlo del bolsillo para dar con cualquier trekkie en las inmediaciones.

Émulos de Spock y postulantes al X-Prize podrán encontrar diagramas, listas de componentes y descargas de firmware en el enlace de lectura; el resto nos conformaremos con admirar los tricorders creados por el señor Jansen en el vídeo que encontrarás a continuación.
Continue reading Saca al Scotty que llevas dentro con el Tricorder de código abierto

Read | Permalink | Email this | Comments

Wikidata: Una base de datos semántica que hará más inteligente a la Wikipedia

Wikidata: Una base de datos semántica que hará más inteligente a la Wikipedia:
El conocimiento al servicio de los ciudadanos, estén donde estén, hablen el idioma que hablen. El conocimiento gratuito, de libre acceso a través de la Red y sin restricciones más allá de la conectividad. Es el espíritu de la Wikipedia, la enciclopedia digital colaborativa más grande que conocemos hasta ahora, y que estaría a punto ser mucho más inteligente gracias al proyecto “Wikidata”, el nuevo proyecto de Wikimedia.
Y es que la misión de “Wikidata”, que ha comenzado a ser desarrollado por el capítulo alemán del movimiento de Wikimedia, es crear una única base de datos colaborativa, capaz de ser accesible y editable tanto por humanos como por máquinas, y que a la vez servirá de “cerebro” o repositorio global de datos estructurados para nutrir a las más de 280 ediciones de Wikipedia, independientemente del idioma en que se encuentren.
Tal como lo lees: Wikidata es un proyecto sumamente ambicioso, que aprovechando las bondades de la Web semántica, creará una base de datos única y capaz de ser leída tanto por máquinas como por humanos, para enriquecer la calidad de los artículos de la Wikipedia, incluyendo datos de origen común (fechas, por ejemplo), sin importar en qué idioma se agreguen al repositorio.
Así las cosas, el desarrollo inicial de Wikidata se realizará en tres fases: La primera que se espera esté terminada para agosto de este año centralizará los vínculos a los datos, de las diferentes versiones lingüísticas de Wikipedia, en un repositorio único.
En la segunda fase, que estaría lista para diciembre de este año, los editores ya podrán añadir y utilizar los datos de Wikidata en los artículos. Y finalmente la tercera fase permitirá la creación automática de listas y gráficos sobre la base de los datos almacenados en Wikidata.
A mi forma de ver la principal ventaja que supone la Wikidata es que colocará a disposición de todos los usuarios del mundo, sin importar su idioma, datos de interés sobre población, fechas, etc.
De igual manera suministrará a la Wikipedia los datos que contenga, con lo cual mejorará las versiones de la enciclopedia colaborativa, sin importar tampoco la versión de idioma en que se consulte: Bien sabemos que la versión en inglés, por ejemplo, tiene artículos con datos más precisos y que no están disponibles para otros idiomas… Pues eso dejaría de ser un problema cuando Wikidata esté funcionando, al menos en datos como fechas o cifras específicas, podría ser muy útil, ¿no crees?
Y la pregunta del millón de euros que más de uno debe estar haciéndose en este momento: ¿Cómo nos afectará como usuarios de la Wikipedia? ¿Cómo podremos acceder a esos datos? En el diseño inicial se prevé que los datos de la Wikidata se integren en las páginas de los artículos de la Wikipedia, en el recuadro lateral que ya incorpora datos numéricos sobre población, código de llamadas, fechas de interés… Por ejemplo.
Precisamente en ese recuadro se actualizarían los datos que se introduzcan en la Wikidata, sin importar el idioma en que estés consultando la Wikipedia, como ya expliqué antes: Otra barrera que va derribando este proyecto de conocimiento libre y colaborativo. Claro, es lo que está pensado, quizás sobre la marcha esto varíe un poco como suele suceder, pero la intención es facilitarnos el acceso a los datos, así que eso se mantendrá aunque sea con otro diseño.
El proyecto de Wikidata, cuya primera fase desarrollarán en Wikimedia Alemania, para luego transferirlo a la Fundación Wikimedia, tiene un coste de 1.3 millones de euros (unos US$ 1.7 millones), que están siendo subvencionados en un 50% por el Instituto Allen para la Inteligencia Artificial, la Fundación Gordon y Betty Moore y Google… Cuando los grandes de la tecnología se unen en este tipo de proyectos que ayudan al desarrollo de la Web, da gusto, ¿verdad?
Links:
Wikipedia’s Next Big Thing: Wikidata, A Machine-Readable, User-Editable Database Funded By Google, Paul Allen And Others (Techcrunch)
Wikidata

La bacteria que convierte la electricidad en fuel

La bacteria que convierte la electricidad en fuel:

No estamos hablando de emplear la electricidad como energía para mover un coche, sino de utilizar la electricidad para conseguir un combustible semejante a la gasolina. Y todo gracias al diligente trabajo de unas bacterias comilonas que asimilan el dióxido de carbono transformándolo en isobutanol. Algo así como sacar gasolina del enchufe de la pared, pero gracias a la ingeniería genética. Se acabó la posibilidad de quedarte tirado con el coche, cuando se acabe la gasolina puedes poner a funcionar las placas solares del techo para que el motor de combustión vuelva a tener “sopa” con la que funcionar.
La bacteria de marras se llama Ralstonia eutropha H16 y utiliza la electricidad para convertir dióxido de carbono en alcohol.
Los átomos de hidrogeno necesarios para ello podrían generarse a través de placas solares. Es lo que han desarrollado científicos de la UCLA (Universidad de California Los Ángeles), algo que podríamos llamar electrobioreactor. Esto abre la puerta a pilas de combustible infinitas que sustituirían las de ion-litio con que se almacena la energía de los automóviles eléctricos dado que con este nuevo sistema el automóvil produciría su propio combustible.
A efectos del experimento, en la UCLA han empleado ácido fórmico para simular la reacción eléctrica que idealmente debería producirse mediante placas solares. No obstante la aplicación probablemente más eficiente (al menos a priori) no sería la de emplearlo en pequeñas instalaciones en los propios automóviles sino en plantas de procesado en las que las bacterias convertirían los desechos en electricidad, suponiendo ello un importante paso en pos de la independencia de los derivados del petróleo, así como en el abaratamiento de los combustibles. [UCLA]

Pesticidas comunes provocan la desaparición masiva de abejas

Pesticidas comunes provocan la desaparición masiva de abejas: Dos estudios recientes han constatado el papel que juegan los pesticidas comunes en la desaparición masiva de las abejas o “colapso de colonias”, que podría poner en peligro la polinización de los cultivos y, en consecuencia, la alimentación de la humanidad. Una de las investigaciones reveló que estos insecticidas reducen la población de las abejas, mientras que el otro demostró que puede desorientarlas, de manera que sean incapaces de volver a la colmena. Los resultados obtenidos sugieren la necesidad de prohibir o, al menos, regular con mayor rigor el uso de estas sustancias en los cultivos. Por Yaiza Martínez.

Pesticidas comunes provocan la desaparición masiva de abejas
Se denomina “colapso de colonias” (Colony Collapse Disorder o CCD, por sus siglas en inglés) a la desaparición masiva de abejas obreras de las colmenas.

Este fenómeno alcanzó su auge en Norteamérica a partir de 2000 y, desde 2007, también lo ha hecho en diversos países europeos, com…

Tendencias 21 (Madrid). ISSN 2174-6850

Un púlsar en la Nebulosa del Cangrejo deja perplejos a los astrofísicos

Un púlsar en la Nebulosa del Cangrejo deja perplejos a los astrofísicos: Investigadores del proyecto Magic han detectado energías de hasta 400 gigaelectronvoltios (GeV) en el púlsar en el corazón de la Nebulosa del Cangrejo, lo que supone unas cifras que superan las expectativas teóricas. Los telescopios de la isla canaria de La Palma han detectado una banda de energías que estaba prácticamente inexplorada hasta la fecha y que podría apuntar a un proceso astrofísico aún desconocido. (CPAN/T21)

Un púlsar en la Nebulosa del Cangrejo deja perplejos a los astrofísicos
Un púlsar situado en el corazón de la Nebulosa del Cangrejo bulle de energía. Los telescopios MAGIC en la isla canaria de La Palma lo han confirmado tras detectarlo en rayos gamma de 25 a 400 gigaelectronvoltios (GeV), una banda de energías que estaba prácticamente inexplorada hasta la fecha. Ahora MAGIC se ha encontrado con que las señales que emite esta estrella llegan hasta energías tan altas como 400 GeV, entre 50 y 100 veces más de lo que predice l…
Tendencias 21 (Madrid). ISSN 2174-6850

Establecen por vez primera las medidas precisas de 300.000 galaxias

Establecen por vez primera las medidas precisas de 300.000 galaxias: La colaboración internacional Sloan Digital Sky Survey (SDSS-III) ha presentado hoy, en seis artículos publicados simultáneamente en el repositorio digital arXiv, las medidas más precisas obtenidas hasta el momento de las distancias de 300.000 galaxias llegando al universo lejano. Estos resultados, en los que participan varios investigadores españoles, ofrecen una mirada sin precedentes del momento en que la expansión del Universo empezó a acelerarse, hecho cuyo descubrimiento supuso el Nobel de Física el año pasado. (SINC/T21)

Establecen por vez primera las medidas precisas de 300.000 galaxias
Tras más de dos años de trabajo del proyecto Baryon Oscillation Spectroscopic Survey (BOSS), un proyecto de la colaboración SDSS-III en el que participan científicos españoles, se presentan ahora los resultados. Hoy se presentan las medidas más precisas obtenidas hasta la fecha de las distancias de 300.000 galaxias llegando hasta el universo lejano, según recogen seis artículos publicados en el repositorio digital arXiv.

Uno de los descubrimiento…

Tendencias 21 (Madrid). ISSN 2174-6850

Crean una molécula artificial que descompone el agua

Crean una molécula artificial que descompone el agua: Un equipo internacional de científicos ha diseñado un catalizador de rutenio capaz de descomponer el agua en hidrógeno y oxígeno. El proceso es tan eficiente como el que se da de forma natural en las plantas. Los resultados de esta investigación representan un gran avance en la obtención de hidrógeno, un elemento que puede ser una alternativa a los combustibles fósiles. SINC/T21.

Crean una molécula artificial que descompone el agua
Un equipo internacional de científicos ha diseñado un catalizador de rutenio capaz de descomponer el agua en hidrógeno y oxígeno.

El proceso es tan eficiente como el que se da de forma natural en las plantas. Los resultados de esta investigación representan un gran avance en la obtención de hidrógeno, un elemento que puede ser una alternativa a los combustibles fósiles.

“Por primera vez somos capaces de realizar la reacción de oxidación de agua de manera tan rápida y eficiente como la propia naturaleza”, ha explicado al respecto…

Tendencias 21 (Madrid). ISSN 2174-6850

Células solares en 3D duplican la producción energética de los paneles

Células solares en 3D duplican la producción energética de los paneles: Un equipo de ingenieros del MIT (Massachusetts Institute of Technology), en Estados Unidos, ha realizado una importante innovación en el terreno de la energía solar, con el diseño de nuevas células solares fotovoltaicas con configuraciones tridimensionales. Este desarrollo permite producir más del doble de energía por área con respecto a las células solares convencionales, además de lograr una potencia de salida que puede ser veinte veces mayor que la obtenida con los paneles planos. Por Pablo Javier Piacente.

Células solares en 3D duplican la producción energética de los paneles
Una nueva etapa en el desarrollo de la energía solar podría ser protagonizada por el aprovechamiento de células solares fotovoltaicas con diseño 3D, una innovación que permite obtener más del doble de la producción energética conseguida con los dispositivos planos utilizados en la actualidad. El avance ha sido realizado por un grupo de ingenieros e investigadores del MIT.

Hasta el momento, la investigación intensiva en todo el mund…

Tendencias 21 (Madrid). ISSN 2174-6850

Aplican el conocimiento de las redes neuronales a la conducción

Aplican el conocimiento de las redes neuronales a la conducción: Científicos de la Universidad de Granada han desarrollado un test neurocognitivo capaz de obtener medidas individuales de distintas funciones atencionales, incluyendo la vigilancia. Esta herramienta permite relacionar el comportamiento de los conductores ante determinadas situaciones de riesgo en el tráfico (por ejemplo, cuando un peatón se cruza inesperadamente o cuando se debe atender a varios peligros potenciales a la vez). UGR/T21

Aplican el conocimiento de las redes neuronales a la conducción
Científicos de la Universidad de Granada han analizado las relaciones que existen entre el funcionamiento de las redes neuronales que controlan nuestra capacidad para atender al entorno y el comportamiento del conductor ante determinadas situaciones de riesgo en el tráfico.

Para ello, han desarrollado un nuevo test atencional capaz de obtener medidas individuales de distintas funciones atencionales, incluyendo la capacidad de vigilancia.

A continuación, han estudiado en un simulador de la conducción la relación que existe entre las funcione…

Tendencias 21 (Madrid). ISSN 2174-6850

Hay miles de millones de planetas habitables en la Vía Láctea

Hay miles de millones de planetas habitables en la Vía Láctea: Las estrellas enanas rojas de la Vía Láctea tienen miles de millones de planetas rocosos poco más grandes que la Tierra en sus zonas de habitabilidad. Son las estimaciones de un equipo de investigadores liderados desde el Observatorio de Ciencias del Universo de Grenoble (Francia). El estudio se ha realizado con la ayuda del ‘cazador de planetas’ HARPS del Observatorio Europeo Austral (ESO/SINC/T21)

Hay miles de millones de planetas habitables en la Vía Láctea
Un equipo internacional estima que debe haber decenas de miles de millones de planetas rocosos no mucho mayores que la Tierra en torno a las enanas rojas, un tipo de estrellas que representan el 80% de las de la Vía Láctea. Los investigadores, además, suponen que haya cerca de una centena en las vecindades del Sistema Solar.

El trabajo es la primera estimación directa del número de planetas ligeros en torno a estrellas enanas rojas. Para realizarlo, los científicos han utilizado observacione…

Tendencias 21 (Madrid). ISSN 2174-6850

¿Cómo se creó nuestra Luna?

¿Cómo se creó nuestra Luna?:
Theia
Hoy en día no está claro cuál es el origen de nuestro satélite. La teoría más aceptada sugiere que un planeta denominado Theia, impactó de forma violenta con la Tierra hace más de 4.000 millones de años. Del impacto salieron despedidos una gran cantida de escombros, que finalmente se agruparon formando la Luna. Por otro lado, otras teorías sugieren que en la formación de nuestro satélite no participó ningún otro cuerpo celeste.
Nuevas investigaciones realizadas por un equipo de científicos de la Universidad de Chicago han reabierto el debate acerca de su origen.

El geofísico Junjun Zhang ha publicado un artículo en Nature Geoscience donde analiza los isótopos de titanio de la Luna y de la Tierra y han comprobado que son muy similares. ¿Entonces no hubo ningún choque con otro planeta? ¿Cómo se formó entonces nuestro satélite?
Anteriormente, ya se había comprobado que los isótopos de oxígeno del manto de la Tierra y de la Luna, eran casi idénticos, pero esto no era suficiente para rechazar la idea de que una colisión con Theia había creado la Luna. Los isótopos de oxígeno terrestre se podrían haber mezclado con isótopos de la masa de material fundido que circundaba el planeta tras el impacto. Ahora, sin embargo, ya que los isótopos de titanio no son tan fácil de intercambiar es difícil teorizar que el mismo tipo de mezcla podría haber ocurrido.
La mayoría de los científicos coinciden en que si un planeta se estrelló contra la Tierra y la Luna se produjo como consecuencia de ello, entonces la Luna debería estar formada por una parte de ese planeta. Algunos dicen que las leyes de la física sugieren que sería hasta un 40% de las rocas del satélite deberían mostrar evidencias de este planeta. Si esto es cierto, ¿por qué los estudios de las rocas traídas por las misiones Apolo no han mostrado evidencias? Desde luego, el debate sigue estando abierto.
Más información | The proto-Earth as a significant source of lunar material, Nature Geoscience (2012) doi:10.1038/ngeo1429
Imagen | PhotoPin

Molinos inteligentes para mayor aprovechamiento de los recursos

Molinos inteligentes para mayor aprovechamiento de los recursos:
molinos
Dependiendo del clima, las turbinas de los molinos de viento pueden enfrentarse tanto a suaves brisas como a ráfagas huracanadas.
Estas condiciones tan variables son un problema a la hora de aprovechar la máxima potencia. Por esta razón, un grupo de investigadores chinos puede haber encontrado una solución novedosa inspirados en los modelos de aprendizaje humano.
La mayoría de turbinas están diseñados para producir una potencia máxima admisible cuando los vientos llegan a una cierta velocidad, es lo que llamamos velocidad nominal.
En los vientos por encima o por debajo de la velocidad nominal, los sistemas de control puede realizar cambios en el sistema de turbina, como modificar el ángulo de las palas o el par electromagnético del generador. Estos cambios ayudan a mantener la eficiencia energética en los vientos bajos y proteger a la turbina de los daños de los vientos fuertes.
Muchos sistemas de control se basan en modelos computacionales complejos y costosos sobre el comportamiento de la turbina, pero el grupo chino decidió experimentar desde un enfoque diferente.
Los investigadores desarrollaron un sistema de control de inspiración biológica, publicado en el American Institute of Physics, en el que utiliza la memoria de experiencias pasadas, con sus respectivos resultados, para afrontar futuros problemas generando nuevas acciones.
En las simulaciones, el controlador mostró resultados inicialmente pobres pero rápidamente aprendió a mejorar, obteniendo unos resultados propios de un sistema más tradicional de control.

El sistema basado en memoria es atractivo debido a su simplicidad

Citan los investigadores, concluyendo que:

El método basado en los modelos de aprendizaje humanos tiene gran promesa para mejorar la eficiencia de conversión de energía eólica

.
Vía | American Institute of Physics

James Cameron sobrevive a su experiencia Abyss y llega a los 11km de bajo el mar

James Cameron sobrevive a su experiencia Abyss y llega a los 11km de bajo el mar:

Tras pasar varias horas “enlatado” dentro de su submarino Deepsea Challenger, por fin James Cameron ha cumplido su objetivo de ser el primer ser humano en solitario en alcanzar el punto más profundo del océano, el Abismo Challenger en la Fosa de las Marianas. Tras 11 km de profundidad, multitud de grabaciones en 2D y 3D, muestras y hasta recogida de bichicos de la zona hadal, ahora sólo nos queda ver el documental del National Geographic.
Sí, porque James Cameron, conocido amante de las profundidades marinas, no sólo ha conseguido hacer todo esto gracias a que está forradísimo, sino también a su colaboración con la NASA y el Nation Geographic.
Para que os hagáis una idea de lo tan rematadamente profundo que ha llegado, ha tardado 2 horas y 36 minutos en llegar hasta allí, y en regresar otros 70 minutos. Todo eso teniendo que soportar en el punto más bajo, más de 1.000 atmósferas de presión.
Afortunadamente para el resto de nosotros, para disfrutarlo no tendremos que soltar un pastizal ni sufrir horas en una experiencia similar a irse a la playa en pleno agosto por una autopista con atasco dentro de un Sinca Mil sin aire acondicionado. Gracias a la ingente cantidad de vídeos, fotos y muestras que ha tomado, podremos verlo todo.
Ahora que ya ha cumplido uno de sus sueños, sólo le queda empezar a mutar jugadores de la NBA con genes de pitufo para seguir adelante con sus fílmicos e inquietantes planes. [NationalGeographic]

Proyectan en Vancouver un edificio de 30 pisos realizado íntegramente con madera

Proyectan en Vancouver un edificio de 30 pisos realizado íntegramente con madera:

Se acabó la crisis del ladrillo, demos paso a la era del tablón. Al menos en Vancouver hay alguien que apuesta decididamente por la arquitectura sostenible (la que no se sostiene suele acabar malamente) empleando exclusivamente madera para la construcción de un edificio con 30 plantas que llegaría a los 120 metros de altura. Ni acero ni hormigón ni ladrillos. Madera y punto. Volvemos a la construcción natural y para evitar que arda se recubrirá con carbón, que además actúa como aislante.
El diseño es obra del canadiense Michael Green, que ya parecía destinado por su apellido (significa verde en español) a acometer un proyecto tan ecológico como el de levantar un rascacielos hecho de madera.

Si llegara a construirse sería el edificio más alto del mundo con “forjado” de madera. El estudio, que ya cuenta en su haber con aeropuertos en la propia Vancouver y en Ottawa además de otras edificaciones en Tayikistán, Taiwán o la ciudad de Nueva York, pretende con este proyecto un tipo de construcción más respetuosa con el medio ambiente, habida cuenta de que los edificios construidos con acero y hormigón son responsables de la producción de grandes cantidades de CO2.
El edificio tendría una estructura interior de vigas de madera laminada y una estructura de tiras de madera en varias capas que soportaría la carga de los pisos. En cuanto a la obtención de la madera necesaria no hay que recordar la gran cantidad de masa forestal de que dispone Canadá, un recurso sostenible puesto que además una vez convertidos los árboles en tablones esa zona puede ver crecer más árboles con el paso de los años.

También pretenden con este proyecto llamar la atención sobre la edificación de esta naturaleza, estando convencidos de que en el futuro podría evolucionar la técnica y dar lugar a construcciones de mayor altura. ─[MG Architecture]

El vídeo time-lapse de las corrientes marinas que encantará a los amantes de la pintura de Van Gogh

El vídeo time-lapse de las corrientes marinas que encantará a los amantes de la pintura de Van Gogh:

No estaba muerto, que estaba de
parranda
dibujando mapas de mareas para la NASA. Después de ver el vídeo que os mostramos a continuación es difícil no sustraerse a recordar las singulares pinceladas del genial Vincent Van Gogh. Y todo a cuenta de un vídeo time-lapse que te enseñamos a continuación y que muestra los ciclos de movimientos de las corrientes marítimas creado por el Centro Goddard de Vuelo Espacial de la NASA examinando los movimientos de las masas acuáticas entre junio de 2005 y diciembre de 2007.
En pocas ocasiones, como en esta, se puede hablar de que la Ciencia se convierte en Arte.
Si hace unas semanas te hablábamos aquí en Gizmodo de una curiosa aplicación para iPad que nos permitía interactuar con un cuadro de Van Gogh, ahora es e l propio océano el que se convierte en un lienzo vivo del artista holandés.
Este vídeo, que se titula “Océano perpetuo” y que te recomendamos disfrutar seleccionando la resolución 1080p, visualiza un período de 30 meses de movimientos de las aguas marinas de nuestro planeta. El vídeo, además de hipnótico, resulta altamente instructivo al permitir un detallado estudio del comportamiento de mares y océanos por todo el planeta.
La animación ha sido creada por la NASA empleando los modelos cartográficos oceánicos de alta resolución del JPL, el Laboratorio de Propulsión a Chorro, que habitualmente se emplean para desarrollar simulaciones y predecir cambios en las corrientes marinas.
En esta ocasión los resultados se han exagerado un poco recurriendo a la representación gráfica de los mismos con cierto toque artístico innegablemente vangoghiano, demostrando una vez más que la Madre Naturaleza sigue siendo el más inspirado de los artistas. ─[NASA]

Crean una Torre Eólica para la integración de energías renovables en la ciudad

Crean una Torre Eólica para la integración de energías renovables en la ciudad: La Universitat Politècnica de Valencia (UPV), el Instituto Tecnológico de la Energía (ITE) y el Estudio Fran Silvestre Arquitectos han desarrollado un edificio que, mediante nuevos avances tecnológicos y la integración de energías renovables –eólica, geotérmica, fotovoltaica y solar térmica– contará con un sistema capaz de producir 3.600 megavatios-hora anuales. La ‘Torre Eólica’ proyectada mide un total de 170 metros y está diseñada para ubicarse en cascos urbanos, de forma que cuenta con la gran ventaja de no tener que transportar la energía, ya que se consume allí donde se produce. UPV/T21.

Crean una Torre Eólica para la integración de energías renovables en la ciudad
La Universitat Politècnica de Valencia (UPV), el Instituto Tecnológico de la Energía (ITE) y el Estudio Fran Silvestre Arquitectos han desarrollado un edificio que, mediante nuevos avances tecnológicos y la integración de energías renovables –eólica, geotérmica, fotovoltaic…
Tendencias 21 (Madrid). ISSN 2174-6850

La temperatura global podría subir tres grados en 2050

La temperatura global podría subir tres grados en 2050: En menos de 40 años, la temperatura del planeta aumentará entre 1,4 ºC y 3 ºC de promedio. Estos son los datos proporcionados por un equipo internacional de investigadores, que advierten de la evolución del calentamiento global si no se mitigan las emisiones de gases de efecto invernadero. En su análisis, los científicos aplicaron un método nuevo, basado en simulaciones de miles de modelos climáticos distintos. SINC/T21.

La temperatura global podría subir tres grados en 2050
En menos de 40 años, la temperatura del planeta aumentará entre 1,4 ºC y 3 ºC de promedio.

Nature Geoscience publica los cálculos de un equipo internacional de investigadores, que advierten de la evolución del calentamiento global si no se mitigan las emisiones de gases de efecto invernadero.

La previsión de incremento de la temperatura en la Tierra se ha hecho con simulaciones de miles de modelos climáticos diferentes.

Los resultados de este sistema concuerdan con l…

Tendencias 21 (Madrid). ISSN 2174-6850

Planetas hiperveloces

Planetas hiperveloces:
Podría haber planetas moviéndose a un 0,5% de la velocidad de la luz que abandonarían nuestra galaxia hacia el vacío intergaláctico.

Foto

El Universo siempre depara sorpresas, incluso cuando ya creemos que lo sabemos todo. El caso de la expansión acelerada así lo demuestra. Pero no hace falta que se encuentren resultados tan espectaculares para sorprendernos. Hace siete años los astrónomos se quedaron perplejos al encontrar estrellas que se alejaban de nuestra galaxia a unos 2 millones de kilómetros por hora. El resultado los dejo intrigados y se plantearon si era posible que hubiera planetas a los que les pasara lo mismo, ¿había planetas orbitando esas estrellas de hipervelocidad?, ¿había planetas solitarios alejándose de la galaxia hacia el inmenso vacío intergaláctico?

Sabemos que hay planetas errantes y quizás pronto podamos contestar a la primera pregunta de las anteriores. Si observamos suficientes estrellas de hipervelocidad quizás podamos detectar algún tránsito planetario y sacar una estadística. Todo depende de los cerca que orbiten y si los planetas han sobrevivido al proceso que ha impelido a su estrella semejante velocidad. Pero previamente hay que hacer algunos cálculos y simulaciones.

El proceso que les permite alcanzar esta velocidad es fascinante. Se cree que, como muchas estrellas de nuestra galaxia, estos objetos una vez formaron parte de una sistema binario, pero que se formó en las cercanía del agujero negro supermasivo del centro galáctico. El sistema binario se vio atraído hacia el agujero negro y una de las estrellas fue capturada por él, mientras que la otra (la que observamos) fue despedida a gran velocidad. Es un efecto de honda gravitatoria similar a la que usamos en la maniobras de asistencia de las sondas interplanetarias que los humanos mandamos a los planetas exteriores.

Ahora sabemos que los exoplanetas son abundantes, que se crean como un subproducto de la formación estelar y que casi cualquier estrella puede tenerlos, incluso las estrellas binarias. Pudiera ocurrir que en un sistema binario de estos cada estrella del sistema tenga planetas a su alrededor, ¿qué pasa con estos planetas? No podemos observar el proceso en directo, pero podemos simular en un computador qué es lo ocurre. Esto es precisamente lo que han hecho Idan Ginsburg (Dartmouth College) y Avi Loeb (Harvard-Smithsonian Center for Astrophysics).

Los resultados son fascinantes. No sólo indican que esos planetas de hipervelocidad existen, sino que además pueden verse impelidos a viajar a un apreciable porcentaje de la velocidad de la luz, de hasta casi 50 millones de kilómetros por hora (14.000 km/s). Éstos habrían formado parte de los planetas de la estrella capturada por el agujero negro, pero se verían expulsados de la misma a gran velocidad.

Serían los objetos más rápidos de la galaxia, pues sólo algunas partículas subatómicas viajan a velocidades superiores (que sepamos). Al parecer no todos los planetas alcanzan esas velocidades y lo habitual es una velocidad entre 10 y 16 millones de kilómetros por hora, pero una pequeña fracción supera con creces esas velocidades.

Otro aspecto interesante que revelan las simulaciones es que algunos de los planetas de la estrella que es expulsada sobreviven el evento y abandonan nuestra galaxia orbitando a su estrella. Son precisamente planetas que giran cerca de su estrella y son los planetas que tienen mayor probabilidad de producir tránsitos. Así que este punto es comprobable experimentalmente y en una campaña de observación se podrían detectar. Los investigadores implicados calculan que la probabilidad de estos tránsitos es del 50%.

Al final estas estrellas abandonarán, junto a sus planetas, la Vía Láctea para adentrarse en el espacio vacío intergaláctico, en general hacia la nada.

Parece que sólo los planetas de órbita pequeña sobreviven a este tipo de evento, pero si hubiera otros más alejados quizás pudieran desarrollar algún tipo de vida en algún momento que pudiera más tarde evolucionar. Unos hipotéticos habitantes surgidos en alguno de esos mundos podrían llegar a ver la Vía Láctea en su conjunto desde “arriba” (o “abajo”). Puede que otros fueran expulsados hace cientos de millones de años de nuestra galaxia con dirección a la galaxia de Andrómeda y ya estén llegando a ella o ya la hayan atravesado (las galaxias están hechas principalmente de espacio vacío). Serían los únicos viajeros intergalácticos posibles.

Algunas de estas estrellas pueden ser expulsadas paralelas al disco galáctico. A los aficionados a los armagedones varios se les puede decir que, efectivamente, una de estas estrellas que pasase cerca de nuestro sistema solar induciría algún tipo de cataclismo y que si uno de estos planetas choca con la Tierra nuestro planeta se volatilizaría al instante. No habría forma de evitarlo. Pero no hay que preocuparse por ello porque la probabilidad de este tipo de eventos es muy baja.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=3785
Fuentes y referencias:

Nota de prensa.

Científicos españoles usan luz ultravioleta para desinfectar las hortalizas

Científicos españoles usan luz ultravioleta para desinfectar las hortalizas:
La luz ultravioleta ya se usa para desinfectar los envases de plástico y también para la desinfección de las aguas. Incluso para desinfectar los móviles. Pero aplicarla a las hortalizas es un proyecto nuevo del Centro Tecnológico para la Industria Auxiliar de la Agricultura (TECNOVA).
El objetivo de los investigadores es reducir la pérdida de las hortalizas y otros productos del campo una vez cortados y mientras esperan para llegar finalmente a las manos del consumidor. Sobre un 20% de los productos se suele perder después de la cosecha, un tanto por ciento bastante elevado.
Hasta ahora una de las opciones más utilizadas es el uso de higienizantes clorados, lo que usualmente llamamos lejía. Aunque la utilización de luz ultravioleta UV-C aparece como otra alternativa, para ciertos productos será más bien otro apoyo, porque el lavado sigue siendo imprescindible después de cortardos.
A favor de la utilización de la luz ultravioleta dos razones principales según los expertos de TECNOVA. La primera que es una técnica que respeta el medioambiente porque no genera residuos.
La segunda y también importante, es que para los productos la luz ultravioleta es una agresión y se defienden generando más compuestos antioxidantes; vitamina C en los pimientos, licopeno en tomate y polifenoles en berenjenas.
El problema: Encontrar la cantidad justa de radiación que acabe con los microorganismos, favorezca la producción de compuestos antioxidantes y no dañe el producto.
Además, la forma irregular del corte al recolectar algunos de ellos, hace difícil que la luz ultravioleta alcance toda la hendidura, principal entrada de microorganismos en las frutas por el azúcar que exudan.
El tema es importante y complicado. Demandamos una producción alta de frutas y hortalizas y para que sea un éxito deben pasar por una serie de procesos; pesticidas, desinfectantes… que empiezan a veces en la misma tierra dónde crecen los árboles y las plantas.
Todo eso viene incluido en la fruta y nos lo comemos. Nos dicen que las vitaminas que contiene la fruta en la piel son importantes. Sobre todo aportan mucha fibra. ¿Bastará con lavarlas?
¿Pelar o no pelar? Esa es la cuestión…
Link: Luz ultravioleta para desinfectar hortalizas (Agencia Sinc)

La aspirina minimiza el riesgo de cáncer pero además podría detener su avance

La aspirina minimiza el riesgo de cáncer pero además podría detener su avance:

No es una novedad que la aspirina puede reducir el riesgo de desarrollar cáncer. Lo que sí es una novedad es el resultado de un estudio de la Universidad de Oxford que sugiere que además el ácido acetilsalicílico podría incluso detener la expansión de esta enfermedad en pacientes que ya la estén sufriendo. Vamos a pasar del “todos los días un plátano” al “todos los días una aspirina”.
El estudio ha estado dirigido por Peter Rothwell y ha sido publicado en la prestigiosa revista médica The Lancet.
Casi podríamos estar a las puertas de considerar a la aspirina como un medicamento anticancerígeno. Hace más de un año que se dio a conocer otro estudio que exponía la capacidad de la aspirina de reducir hasta en un 60% los riesgos de desarrollar un cáncer, al parecer lo conseguiría al reducir la inflamación de las plaquetas sanguíneas.
Este nuevo estudio sugiere que además de todo esto, los pacientes de cáncer que toman diariamente aspirina durante un período de unos 6,5 años ven reducida a la mitad la propensión del cáncer que padecen a expandirse que aquellos que no toman aspirina.
Evidentemente esto no es la panacea dado que se conocen los riesgos y efectos secundarios del uso habitual de la aspirina, como pueden ser las hemorragias internas, por lo que debería ser un médico quien supervisara la ingesta de este medicamento. ─[The Lancet]

ModMyPi venderá carcasas para el Raspberry Pi Model B y donará dinero a la fundación

ModMyPi venderá carcasas para el Raspberry Pi Model B y donará dinero a la fundación:
Filed under: ,

ModMyPi venderá carcasas para el Raspberry Pi Model B y donará dinero

Los pequeños ordenadores Model A y Model B de Raspberry Pi están causando tanto furor que ya existe un mercado paralelo relacionado con sus accesorios, a pesar de que las primeras unidades ni siquiera han llegado a manos de sus compradores. La gente de ModMyPi está tan convencida del éxito del proyecto que ya se ha comprometido a fabricar carcasas para el ordenador Model B, que como seguramente sabes, viene sin ningún tipo de protección. Las carcasas serán fabricadas en el Reino Unido usando impresoras 3D y podrán ser adquiridas en colores negro, blanco, rojo, verde, azul o cualquier combinación de ellos.

Sus responsables esperan vender las primeras carcasas a partir del cinco de abril a un precio de 7,99 libras por las blancas y negras y 9,99 libras por el resto de la gama. Nos alegra saber que además donarán un cinco por ciento de las ganancias a la fundación Raspberry Pi, para de esta forma apoyar el continuo desarrollo de tan curioso e interesante proyecto.

[Vía Geek.com y Slashdot]

Read | Permalink | Email this | Comments

Commodore revive el Amiga con un formato mini

Commodore revive el Amiga con un formato mini:

En su día el Commodore Amiga era una auténtica revelación que le daba mil vueltas a todo lo que la competencia tenía a la venta, pero los movimientos del mercado a veces son incomprensibles y tanto Amiga como Commodore fueron desapareciendo en el olvido. En los últimos años Commodore está regresando gracias a sus fieles fans y a los adoradores de lo retro. Ahora, junto con sus remakes del Commodore 64, lo intentan también con el Amiga Mini.
Se trata de una “cajatorre” mínima hecha en aluminio, en color metalizado o negro con unas dimensiones de 197 x 197 x 75 mm y 2 ventiladores de 40 x 40 x 10 mm.
En su interior hay un procesador Intel Sandy Bridge Core i7 a 3,5GHz, 16 GB de RAM DDR3, disco duro de 1TB, disco SSD secundario opcional de 300 o 600GB, Blu-ray y una tarjeta NVIDIA GeForce GT 430 con un 1GB.
Sus conexiones cuentan con HDMI, 2 DVI Dual-link y DisplayPort, salida de audio 7,1, 4 puerto USB 3.0, 4 puertos USB 2.0 y 2 antenas Wi-Fi.
Funciona con un sistema operativo propio de Commodore basado en Linux llamado Vision, y para que puedas seguir recordando tiempos mejores incluyes originales y remakes de antiguos juegos de Amiga.
No está nada mal, si no fuera porque el precio es de 2.495 dólares, una verdadera burrada que lo hace atractivo únicamente para aquellos fervientes seguidores del Amiga o todo aquel que no sepa que hacer con su dinero. [Commodore]

Mercurio es más extraño de lo que se creía, según nuevos datos enviados por Messenger

Mercurio es más extraño de lo que se creía, según nuevos datos enviados por Messenger:
Pese a que Mercurio es conocido desde la antigüedad, poco se ha estudiado sobre este planeta, el más próximo al Sol. La sonda Messenger, que comenzó a orbitar el planeta hace un año, busca entregarnos más datos de este vecino y la NASA publicó dos nuevos informes sobre el equipo investigador a cargo del robot, que detallan algunas observaciones hechas en el hemisferio norte del planeta.
Los nuevos datos sugieren que Mercurio ha tenido procesos de cambio mucho más dinámicos de lo que se pensaba hasta ahora, y que el núcleo es diferente a todos los planetas rocosos que conocemos de nuestro sistema solar, como Venus, Marte o la Tierra.

Núcleo extraño


Uno de los descubrimientos más curiosos es la estructura interna del planeta. Mediciones gravitacionales de Messenger sugieren que Mercurio tiene un enorme núcleo de hierro denso, que ocupa hasta el 85% del interior del planeta (en la Tierra alcanza un 50%). Además, el área sobre el núcleo de hierro es mucho más densa que la roca, pero no tan densa como el hierro. La mejor interpretación hasta ahora de esta información es que una capa de sulfuro de hierro de unos 200 kilómetros de grosor existe alrededor del núcleo. Esto significaría que la corteza y el manto de Mercurio sólo tienen 300 kilómetros de grosor.
La investigadora Maria Zuber comparó así a Mercurio con una naranja, donde el núcleo y la cobertura de sulfuro de hierro serían la carne de la naranja, mientras la corteza sería sólo del tamaño de la cáscara.
En la Tierra, la convección del magma en el manto terrestre causa muchos procesos geológicos, como cadenas montañosas o fallas tectónicas. Pero si el manto de Mercurio es tan delgado, no hay mucho espacio para que ocurra la convección, lo que lleva a los investigadores a preguntarse cómo se forman estas características topográficas en el pequeño planeta.

Formaciones geológicas


Messenger midió la altura de la superficie en gran parte de Mercurio, revelando grandes planicies que se crearon en las primeras etapas de la historia del planeta, y que se han ido deformando en el tiempo. Una de las deformaciones observadas corresponde a la Cuenca de Caloris, un impacto de cráter gigante de más de unos 1.500 kilómetros de diámetro que se formó en las primeras etapas del planeta, cuando fue fuertemente bombardeado por meteoritos hace unos 4.000 millones de años.
Si Mercurio fuera un planeta “muerto”, es decir, sin actividad geológica, el cráter se habría mantenido casi sin cambios desde entonces. Pero las medidas tomadas por Messenger revelan que algo causó que parte del suelo de la Cuenca de Caloris se elevara por sobre el borde del cráter.
“Nunca hemos visto algo como esto en un planeta”, dijo Maria Zuber. El descubrimiento sugiere que actividad al interior de Mercurio empujó el suelo hacia arriba, y que este proceso ocurrió más tarde de lo que se creía posible en el planeta.
Por el momento, la conclusión es que Mercurio es un mundo extraño, con características que no se han visto en ninguna otra parte. La presencia de Messenger en la órbita del planeta seguramente podrá ayudar a esclarecer algunas de las dudas que quedan pendientes en el futuro.
Link: Planet Mercury even weirder than we thought (Wired)