Desarrollan un chip inalámbrico terahertz capaz de transmitir datos a 30 Gbps

Desarrollan un chip inalámbrico terahertz capaz de transmitir datos a 30 Gbps:

Filed under:

Científicos de la universidad japonesa de Osaka junto con la firma ROHM han logrado un hito al desarrollar un diminuto chip inalámbrico que funciona en el rango terahertz y que facilita la transmisión de datos a 1,5 Gbps. El chip, que cuenta con unas dimensiones de dos centímetros de alto por uno de alto, es notablemente más pequeño que todos los desarrollos anteriores que emplean dicho rango. Con todo, los científicos nipones aseguran que podrán alcanzar los 30 Gbps, suficientes para transmitir vídeo en HD por toda la casa. Pero posiblemente lo más interesante de todo esto es que fabricar dichos chips resultará mucho más económico que las versiones anteriores. ROHM espera contar con versiones comercializables en tres o cuatro años.

[Vía TechCrunch]

Read | Permalink | Email this | Comments

Liberado el código fuente de Doom 3: Avalancha de Mods inminente

Liberado el código fuente de Doom 3: Avalancha de Mods inminente:

Filed under: ,

Hemos visto infinidad de modificaciones que permitían correr una de las sagas más famosas del Shoot ‘em up en cualquier tipo de dispositivo, sin embargo, ahora la cosa se pone más seria que nunca. John Carmack, padre y creador del universo Doom, ha anunciado que el código fuente de Doom 3 está disponible para su descarga de manera completamente gratuita y legal (han tenido que salvar un par de licencias privadas para poder dejarlo abierto al público), así que prepárate para ver más Doom que nunca porque la cantidad de mods que aparezca a partir de ahora será increíble. Una excelente noticia para aquellos amantes de la BGF9000.

[Vía The Verge]

Permalink | Email this | Comments

Curiosity: El rover más equipado que viajará a Marte

Curiosity: El rover más equipado que viajará a Marte:

593480main_pia14839-43_800-600

El próximo sábado 26 de noviembre la NASA enviará con destino a Marte el rover más equipado y revolucionario construido por el ser humano, nos referimos al rover Curiosity o Mars Science Laboratory (MSL).

Ese día será un cohete Atlas V 541 el encargado de transportar al rover y su lanzamiento se llevará a cabo desde el complejo de lanzamiento de la Base Aérea de Cabo Cañaveral.

¿Pero que hace tan particular a esta misión respecto a las otras en las que se ha embarcado la NASA?

En primer lugar estamos en presencia del rover más grande enviado a Marte, el Curiosity tiene un tamaño similar a un vehículo utilitario pequeño: 3 metros de longitud, 2,8 metros de ancho, 2,2 metros de alto y su brazo robotizado tiene una longitud de 2,1 metros. En tanto que sus seis ruedas tienen un diámetro de 50 centímetros y cada una cuenta con un motor eléctrico independiente.

Las dimensiones del rover se justifican por el hecho de que es el rover con mayor cantidad de instrumental destinado a realizar un acabado estudio la superficie del planeta rojo. De hecho cuenta con la capacidad de vaporizar piedras por medio de un láser y analizar su composición a varios metros de distancia.

La sonda MSL Curiosity tiene una masa al lanzamiento de 3893 kg y se divide en tres partes:

  • La etapa de crucero interplanetaria (539 kg)
  • La cápsula de entrada atmosférica y etapa de descenso (2.401 kg)
  • El rover Curiosity (899 kg)

El rover Curiosity cuenta con dos computadores redundantes responsables de su operación, ambos cuentan con un procesador BAE RAD 750 de 200 MHz (se basan en los PowerPC 750) con 250 MB de memoria RAM y 2 GB de memoria flash (Spirit y Opportunity contaban con un procesador RAD6000 de 20 MHz).

Dentro del instrumental con que cuenta el rover destacan:

Mastcam (Mast Camera): Dos cámaras independientes que opera como “los ojos” del rover. Cada una es de 2 Megapíxel con capacidad para grabar video en HD gracias al sensor CCD Kodak de 1.600 x 1.200 píxel y a su memoria flash de 8 MB.
La cámara ubicada al lado derecho cuenta con un teleobjetivo de 100 mm capaz de alcanzar una resolución de 7,4 cm por píxel a un kilómetro de distancia, mientras que la ubicada al lado izquierdo cuenta con una lente de 34 mm de focal con la que podrá obtener imágenes con una resolución de 22 cm a un km de distancia.

ChemCam (Chemistry and Camera): Uno de los instrumentos más interesantes consistente en un láser infrarrojo con la potencia necesaria para vaporizar rocas a siete metros de distancia. La composición del plasma resultante luego de la intervención del láser será analizado espectroscópicamente. Se encuentra ubicado sobre el Mastcam y cuenta con un telescopio de 110 mm y una cámara monocromática con un CCD de 1.024 x 1.024 píxel.

SAM (Sample Analysis at Mars): Instrumento con el que se intentará buscar compuestos relacionados con la presencia de vida en Marte y analizar el metano presente en el planeta. Las muestras obtenidas por el brazo serán depositadas en dos hornos de 40 W (alcanzan temperaturas de 1.000° C).

CheMin (Chemistry and Mineralogy): Instrumento encargado de analizar las muestras de polvo y roca obtenidas por el brazo robot por medio de difracción por rayos X y fluorescencia de rayos X. Se encuentra instalado en la parte frontal del rover y para acceder a él por medio de un embudo con tapa.

REMS (Rover Environmental Monitoring Stations): Instrumento encargado de monitorizar diariamente el tiempo en el planeta rojo. Cuenta con una serie de sensores que le permiten medir la velocidad del viento, la humedad, presión atmosférica y la temperatura ambiental

RAD (Radiation Assessment Detector): Encargado de medir la radiación ambiental en el entorno del rover. Su principal objetivo es obtener información que sirva para una futura misión tripulada a Marte.

DAN (Dynamic Albedo of Neutrons): Instrumento encargado de detectar agua en el subsuelo de Marte. Para ello medirá la dispersión de neutrones obtenidos desde un generador de neutrones ubicado en la parte derech del rover.

MARDI (Mars Descent Imager): Cámara responsable de la filmación -por vez primera- del aterrizaje de una sonda en Marte. Su lente gran angular cuenta con un CCD de 1.600 x 1.200 píxel con la capacidad de obtener hasta cuatro imágenes por segundo.

APXS (Alpha Particle X-Ray Spectrometer): Este espectrómetro se encuentra ubicado en el extremo del brazso robótico del Curiosity e incluye una pequeña cantidad de curio-244 radiactivo para generar partículas alfa y rayos X necesarios para llevar a cabo estudios espectrométricos de las rocas marcianas en contacto con el instrumento.

MAHLI (MArs Hand Lens Imager): Microscopio geológico responsable del estudio de las rocas marcianas. Cuenta con una cámara a color ubicada en el extremo del brazo robot y puede obtener imágenes en alta resolución.

Debido a su masa -el rover pesa 899 kg- los ingenieros de la NASA debieron construir el mayor escudo térmico, junto con el paracaídas más grande utilizado hasta ahora en una misión en Marte. De igual manera y con la finalidad de acceder a las zonas más interesantes desde el punto de vista geológico y astrobiológico, se diseñó un novedoso sistema encargado de posar al rover en el lugar elegido por los científicos a cargo del proyecto. Dicho sistema será el responsable de frenar la velocidad de caída del rover y hacer descender al rover como si se tratara de una grúa (por eso se le donominó como “Sky Crane”).

Si la sonda despega este sábado tardará 255 días en llegar a Marte y si todo sale tal cual como esta programado, el 12 de agosto de 2012 el mundo será testigo del inicio de una de las misiones más espectaculares diseñadas por el ser humano para la exploración de otro planeta.

Click aqui para ver el video.

Links:

Mars Science Laboratory (NASA)

‘Dream machine’ Curiosity to explore Mars (NZherald)

Fully Loaded Curiosity Rover Readies for Trek to Red Planet (TechNewsWorld)

Investigadores consiguen proyectar información en un lente de contacto

Investigadores consiguen proyectar información en un lente de contacto:

terminator_eye

¿Cuántas veces hemos soñado con tener un ojo biónico como el de Arnold en Terminator? Al parecer estamos muy cerca de conseguirlo, luego que científicos estadounidenses y finlandeses produjeran el primer prototipo de lente biónico.

Investigadores de la Universidad de Washington y de la Aalto University Finland crearon un lente de contacto capaz de proyectar información electrónica a la retina. El primer prototipo cuenta con un pixel y funciona sin efectos colaterales, o al menos eso dicen luego de probarlo en el ojo de un conejo.

El lente de contacto funciona gracias a una antena que capta energía de una fuente externa, ésta es almacenada en un circuito y luego enviada a un chip de zafiro transparente que contiene un LED azul.

La tolerancia corporal al lente no ha sido el único problema con que han lidiado los investigadores. El ojo humano cuenta con una distancia focal mínima de varios centímetros, si acercamos demasiado el objeto entonces se volverá borroso.

Para solucionar esto, el prototipo cuenta con lentes de Fresnel, que son más delgados y planos que los lentes convencionales; estos ayudan para enfocar la imagen proyectada en la retina.

Los científicos se muestran complacidos y ya piensan en producir prototipos con más pixeles, los cuales desplegarían mensajes de texto en el lente. Después de eso se necesitará de mucho esfuerzo y horas de investigación para proyectar imágenes en alta resolución.

¿Qué les parece?

Link: Researchers See Retina Display, Raise Them A Cornea Display (TechCrunch)

Los robots Wave Glider empiezan un viaje de exploración oceánica que romperá récords

Los robots Wave Glider empiezan un viaje de exploración oceánica que romperá récords:

Filed under: , ,

A primera vista pensarás que el robot de la foto superior no tiene nada en particular, pero los Wave Gliders aspiran a revolucionar la exploración oceanográfica. Cuatro de estos robots, fabricados por Liquid Robotic, cruzarán el Pacífico de manera autónoma, con un sistema de movimiento que aprovecha la subida y bajada de las olas para generar impulso por medio de unas aletas. De esa manera esperan terminar en el libro de récords Guinness al ser el dispositivo autónomo de viaje más largo, porque dos de ellos viajarán de Hawái a Japón, y otros dos de Hawái a Australia.

En lo que a la parte científica y de exploración se refiere, los Wave Gliders llevan varios sensores, que reciben electricidad de los paneles solares, y pueden analizar el nivel de oxígeno, aceite, temperatura y profundidad del agua, además de la dirección de las corrientes, y niveles de presión del aire, así como la velocidad, temperatura ambiental y dirección del viento. Toda la información será transmitida en tiempo real a satélites, que después la publicarán en internet para el uso gratuito del público.

El precio de cada robot va desde 250.000 a 500.000 dólares, dependiendo de la cantidad y tipo de sensores, que según dicen, es una cantidad bastante asequible para un vehículo de recogida de datos autónomo como este.

Esperamos que terminen su viaje sin percances, y en especial que ningún tiburón los confunda con un delicioso postre para la cena.

Continue reading Los robots Wave Glider empiezan un viaje de exploración oceánica que romperá récords

Read | Permalink | Email this | Comments

[Competición] Explícale a tu madre los beneficios de las SSD 830 de Samsung y llévate una a casa

[Competición] Explícale a tu madre los beneficios de las SSD 830 de Samsung y llévate una a casa:

publipostsams

¿Sabes mucho de tecnología? Si eres de los que se pasa el día explicándole a tus amigos para qué sirven los últimos inventos tecnológicos que salen al mercado, este concurso es para ti.

Samsung nos trae un reto que no podrás rechazar: ¿Eres capaz de explicarle a tu madre, de forma clara y sin rodeos, qué es y para qué sirve la memoria SSD 830 de Samsung?

Si asumes el reto de “Claro y sin rodeos” tendrás que explicar, usando un máximo de 50 palabras, cuáles son los beneficios de las nuevas tarjetas de memoria SSD 830 de Samsung.

“Claro y sin rodeos” es una competición de sitios Web que premiará con 15 SSD 830 de 128 Gbs al sitio Web que tenga más usuarios que se hayan registrado y participado.

¿Y cómo se hace? Si conseguimos el mayor número de inscritos y participando en el Widget de la Competición, que está al final de esta nota, Samsung nos otorgará 15 SSD 830 de 128 Gbs para sortear entre vosotros, ¡así que a mover el concurso en las redes sociales!

¿Qué haces para participar? Introduce tus datos de nombre, correo electrónico y fecha de nacimiento, pincha “OK” en la ventana “acuerdo de términos y condiciones” y en el Widget al final de nota, y responde en 50 palabras cuáles son los beneficios de las nuevas memorias SSD 830 de Samsung.

El dato: La competición está abierta a todos nuestros usuarios, se encuentren donde se encuentren.

¡Ah! Importante: ¡Anima a tus amigos a participar! Cuanta más gente participe, más posibilidades tenemos de ganar las 15 SSD 830. Y además, debéis saber que Samsung escogerá la mejor respuesta de entre todas las participantes, y premiará a su autor con un PC Gaming de última generación.

El concurso está abierto desde hoy y hasta el próximo 12 de diciembre, así que no pierdas tiempo y… ¡Mucha suerte!

Una novedosa y económica tecnología convierte el calor residual en electricidad

Una novedosa y económica tecnología convierte el calor residual en electricidad: Ingenieros y científicos de la Universidad de Oslo han realizado un nuevo avance en el campo de la termoelectricidad que permitirá aprovechar el calor residual producido por dispositivos del hogar, fábricas, centrales eléctricas y vehículos para generar electricidad de manera económica y eficiente. Con este sistema, podría aprovecharse el importante caudal energético desperdiciado en diversas actividades humanas, que actualmente supera en un 50% el consumo de energía. Por Pablo Javier Piacente.

Una novedosa y económica tecnología convierte el calor residual en electricidad

La posibilidad de producir electricidad a partir del calor residual generado por todo tipo de artefactos o grandes infraestructuras, desde neveras y automóviles hasta fábricas y centrales eléctricas, parece estar cada vez más cerca. Así lo indica una reciente investigación llevada a cabo en Noruega por expertos de la Universidad de Oslo, que podría desembocar en dispositivos termoeléctricos económicos y eficientes.

Los desechos de calor con potencialida…

Tendencias 21 (Madrid). ISSN 2174-6850

Bosón de Higgs: el cercano episodio final

Bosón de Higgs: el cercano episodio final:

Se aproxima el momento en el que sabremos algo definitivo sobre el bosón de Higgs. Su existencia o inexistencia se conocerá antes de que finalice el año 2012.

Foto

El Higgs ya sólo se puede ocultar en una ventana entre 114 y 141 GeV. Fuente: Nature.

Hawking apostó 100 dólares a que el LHC no encontrará el famoso bosón de Higgs. Y según él esta ausencia significará que la situación es mucho más excitante de lo que se esperaba. Puede que el resultado de esta apuesta ya la sepan, de un modo u otro, algunos físicos del CERN o que, al menos, la sospechen.

Como ya sabemos el bosón de Higgs es la partícula postulada para explicar la ruptura de simetría entre la fuerza electromagnética y la fuerza débil. A cierto nivel de energía esas dos fuerzas son la misma (fuerza electrodébil) y se presentan unificadas en una sola. Pero por debajo de esa energía son diferentes. De hecho los fotones, que son los bosones de la fuerza electromagnética, tienen masa nula, mientras los bosones de la fuerza débil (W y Z) tienen masas elevadas. La simetría se presenta rota.

Para explicar esta ruptura Peter Higgs propuso la existencia de un campo escalar (el que lleva su nombre) que permitía a las partículas adquirir masa. Dependiendo de como de fuerte o débil fuese la interacción con ese campo se adquiría más o menos masa. Este mecanismo se podía extender además al resto de las partículas del modelo estándar. La masa en el modelo estándar original es un dato que se mete desde fuera y que no se desprende de la propia teoría a no ser que se invente algún mecanismo como el de Higgs. Digamos que la interacción de cada una de las partículas con el campo de Higgs hace que cada una adquiera una masa específica dependiendo de la intensidad de esa interacción.

Aunque nadie lo confiesa, la construcción del LHC se realizó en gran parte para descubrir el bosón (o bosones de Higgs, ya que parece que se han ido multiplicando). Hace años se exploraron las energía bajas sin encontrarlo y a energías muy altas no tiene sentido que exista. Mientras tanto, en el Fermilab y en el CERN han ido explorando y excluyendo gamas de energía cada vez más amplias entre esos límites. Ni el experimento ATLAS ni CMS del LHC han encontrado pruebas de su existencia hasta ahora. En un congreso reciente celebrado en París se ha mostrado que se excluye la existencia de dicha partícula entre 141 y 476 GeV.

Ya sólo queda una ventana entre 114 y 141 GeV sin explorar, único reducto en donde el Higgs podía esconderse. Los datos de colisiones del LHC de los últimos meses deben de haber cubierto ya esa ventana, independientemente de lo buena que sea la estadística acumulada.

Cuentan en Nature que Bill Murray es uno de los pocos científicos del CERN que tiene esos datos, ese secreto que nos dirá si hay o no hay Higgs. Frente a la pantalla de su portátil comenta sobre su labor de este verano: “Es realmente interesante mirarlo de nuevo. Pero no, no puedo decirlo…”

Los investigadores esperan recibir los últimos datos en diciembre. Si resulta que el análisis de esos datos es negativo quizás ya vaya siendo hora de reconocer que el Higgs no está, no existe o no se le puede encontrar.

Si hay señales del Higgs puede que se anuncie su existencia en 2012. Otra posibilidad es que sea una partícula compuesta o algo (¿racimos de W?, ¿bosón de Higgs doble?, etc.) que haga el papel del Higgs pero que produzca señales poco claras en los detectores. Entonces se necesitarían más análisis. Si es así se seguirán con las colisiones hasta finales del año que viene, que es cuando se parará el acelerador para actualizarlo y que más tarde pueda funcionar a mayor energía.

Si al final no aparece el Higgs será una pesadilla para los experimentalistas, ya que no tendrían una teoría clara que les guíe en su búsqueda. Sin la unificación electrodébil el Modelo Estándar es incapaz de predecir con precisión cómo son las colisiones en el LHC y no se pueden elaborar predicciones fiables que sean contrastables con los datos que se puedan obtener. En estos experimentos incluso se asumen ciertas propiedades y comportamientos a la hora de diseñar el propio hardware o el software que discrimina el grano de la paja.

En estos tiempos se ha resucitado el Tecnicolor y se han propuesto otras ideas, como la que apunta a que las dimensiones extras del espacio podrían hacer el papel del Higgs (últimamente las dimensiones extras parece que sirven para casi todo), pero ninguna parece gozar de tanto favor entre la comunidad académica como la que tiene o tenía el Higgs.

Puede que el LHC no vaya a crear un agujero negro que se trague la Tierra (algo ridículo por otra parte), sino que quizás se vaya a tragar las teorías de Físicas de Altas Energías al uso. Una situación sin duda interesante desde el punto de vista intelectual, pero una catástrofe desde el punto de vista político-económico. Si es así, va resultar que el bosón de Higgs es al final la “partícula del diablo”.

Desde el punto de vista filosófico y científico puede ser interesante meditar sobre la posibilidad de que después de construir la máquina más grande y poderosa de la humanidad, una máquina muy cara en la que han trabajado cientos de científicos e ingenieros durante muchos años, no se descubra absolutamente nada nuevo. Pero descubrir esa “nada” ya sería todo un logro, pues el conocimiento también se mide por lo que no se sabe, o por lo que se creía saber y que en realidad no se sabía.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=

Fuentes y referencias:

Noticia en Nature.

Nuevo teorema cuántico

Nuevo teorema cuántico:

Según un nuevo teorema, el estado cuántico no puede interpretarse estadísticamente y que dicho estado es una propiedad física del sistema.

Foto

En Física, como en cualquier otra rama de la ciencia, a veces no se investiga en lo que se debe investigar, sino sobre lo que mas rentabilidad reporta al investigador. Ese beneficio suele ser en forma de publicaciones, currículum y dinero para proyectos proporcionado por unas instituciones que financian los temas de moda o los temas que los políticos consideran “rentables”, “aplicados” o “de excelencia” (realmente nadie sabe lo que significa esta palabra). El resultado es que la investigación básica de la que se alimenta toda ciencia aplicada, todo desarrollo o toda innovación queda relegada y la “Ciencia” no avanza realmente.

Si un titulado decide ignorar esas limitaciones se encontrará sin un director de tesis, sin beca y sin una plaza de ayudantía. Si consigue defender una tesis (sea del tipo que sea) y luego decide estudiar sobre un tema básico se encontrará con problemas similares y sin financiación para su “proyecto”. Además, se tendrá que enfrentar a ciertas “mafias académicas” que compiten por los mismos recursos. Un ejemplo claro lo tenemos en las cuerdas, que han conseguido hacerse con el “nicho ecológico” de la Física Teórica en muchos “hábitats académicos”. No hace falta mencionar lo malo que puede ser un sistema de “verdad revelada”.

Si esto sucede en el “primer mundo” científico, no hace falta decir que el segundo es peor (en el tercero no se presenta tal problema). Por estas razones, a veces, hay investigadores que esperan a tener una plaza asentada o un nombre para acometer un proyecto arriesgado y valiente si es que el instinto de conservación del prestigio, su agilidad mental y su valentía mental se lo permiten.

Otras veces hay unas pocas instituciones que se dedican precisamente a este tipo de temas y a reclutar científicos a lo largo de todo el mundo. Una de ellas es el Perimeter Institute, que está financiado por Blackberry y por el gobierno canadiense.

Todo esto sería un buen tema de estudio para los sociólogos si alguna vez alguno se atreve a estudiar algo así y viene a cuento por la noticia sobre los fundamentos de la Mecánica Cuántica que vamos ver.

Los fundamentos de la Mecánica Cuántica son algo sobre lo que muy poca gente trabaja y sólo cuando se ha postulado la existencia de posibles computadores cuánticos ha sido cuando ese campo ha captado cierta atención. Pero una cosa es el diseño de esos computadores y conseguir métodos de corrección de errores, de cifrado o de cómo mantener la coherencia y otra conocer bien las raíces sobre las que se asienta la Mecánica Cuántica.

Podemos ahorrar esta cuestión a la mente del lector. La verdad es que no se conocen bien los fundamentos sobre los que está construida la Mecánica Cuántica. Esto fue objeto de fuertes debates en su tiempo y terminó por relegarse debido a que se prefirió un punto de vista práctico según el cual se usa la Mecánica Cuántica para calcular y predecir fenómenos físicos, aunque nadie entienda realmente la propia Mecánica Cuántica. Podemos calcular el momento magnético del electrón con un montón de cifras decimales, pero no sabemos interpretar bien el colapso de la función de onda, la acción a distancia o no estamos seguros qué significa la propia función de ondas.

Una de las interpretaciones más habituales de la Mecánica Cuántica es la que considera la función de ondas como una herramienta probabilística para hacer los cálculos. Según la MC no habría partículas (puntitos definidos en el espacio y el tiempo), sino funciones de onda a partir de las cuales se puede calcular la probabilidad de encontrar esa partícula. Digamos que la función de onda refleja lo que podemos saber sobre el mundo en lugar de ser una realidad última. Los físicos han desanimado desde hace décadas la investigación sobre el significado de la función de ondas.

A Albert Einstein no le gustaba la MC porque decía que no era una teoría acabada, que había una realidad última y desconocida (las famosas variables ocultas) aún por descubrir y que gracias a ella, cuando se descubriera, desaparecerían todas esas incertidumbres y probabilidades. Einstein consideraba que la mejor interpretación para la MC era la probabilística y que esta disciplina era similar a la Física Estadística Clásica. Las probabilidades en este caso serían una medida de nuestra ignorancia sobre los sistemas, no algo inherente a los mismos.

Había aspectos de la MC que a Einstein le desagradaban especialmente, como la famosa y “spooky” acción a distancia, por la que dos partículas entrelazadas que siguen trayectorias opuestas se “ponen de acuerdo” en el colapso de sus funciones de ondas de manera instantánea por muy lejos que estén una de otra.

Los experimentos realizados desde hace años han ido mostrando la realidad de esta “acción a distancia” y el poco o nulo margen que le quedan a las supuestas variables ocultas.

Ahora un grupo formado por los físicos Matthew F. Pusey, Jonathan Barrett y Terry Rudolph han publicado un teorema (ya disponible en ArXiv) según el cual el estado cuántico no puede interpretarse estadísticamente. Según ellos un estado cuántico puro es una propiedad física del sistema.

En el artículo se mantiene que si la función de ondas fuera una herramienta estadística pura entonces incluso los estados cuánticos no conectados a lo largo del espacio y el tiempo se podrían comunicar entre sí. Como esto es casi imposible que se dé, entonces los investigadores concluyen que la función de ondas debe ser, después de todo, algo físico.

Según este resultado los sistemas cuánticos individuales deben conocer exactamente qué estados han sido preparados (la palabra “preparación” es una palabra técnica usada en MC) o los resultados de las medidas experimentales sobre ellos darán lugar a resultados que entrarán en conflicto con la propia MC.

Antony Valentini, de Clemson University in South Carolina, especialista en el tema y no implicado en el estudio, dice que “la palabra seísmo es probablemente la que se puede aplicar a este artículo”. Según él, este resultado es el más importante teorema general relacionado con los fundamentos de la MC desde el teorema de Bell en 1964.

David Wallace, filósofo de la Física en la Universidad de Oxford dice que el teorema es el resultado más importante sobre los fundamentos de la MC que haya visto en los últimos 15 años de carrera profesional. “Esto aparta la oscuridad y muestra que no puedes tener una interpretación del estados cuánticos que sea probabilística”.

Robert Spekkens, del Perimeter Institute y que ha favorecido la interpretación probabilística, dice que el nuevo resultado es “fantástico”, aunque no esté de acuerdo con la conclusión a la que llegan los autores al final del artículo. Spekkens espera que el teorema tenga amplias consecuencias para la Física, como lo tuvo el teorema de Bell y otros teoremas fundamentales. Según él, el teorema es muy importante y bello en su simplicidad.

Naturalmente no todo el mundo va estar de acuerdo con estas opiniones y todavía queda que se envíe el artículo a una revista de prestigio con revisores. Veremos que pasa al final.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3662

Fuentes y referencias:

Noticia en Nature.

Artículo original.

Ilustraciones: milesmathis.

Con CloudFTP puedes compartir por Wi-Fi con casi cualquier cosa

Con CloudFTP puedes compartir por Wi-Fi con casi cualquier cosa:

Las tarjetas de memoria SD con conexión Wi-Fi permitieron por fin que pudieras pasar fácil y rápidamente tus fotos y vídeos a móviles o dispositivos con más almacenamiento. Esta ventaja ha sido todo un éxito, pero ¿qué dirías si esta habilidad se trasladase a cualquier dispositivo que pudiera conectarse por USB?

Pues sí, dentro de muy poco será posible con CloudFTP, un gadget que le añade conexión Wi-Fi a todo tipo de productos para que la transmisión y copia de ficheros ya no sea un horror.

Aunque CloudFTP todavía no está a la venta y es un proyecto KickStarter, tiene pinta de que conseguirán los 100.000 dólares que necesitan para que el producto salga adelante.

Esta pequeña cajita de poco más de 100 gramos y 75 x 58 x 22 milímetros dispone de un puerto USB 2.0 Host, una batería de 2.600mAh con autonomía de 5 horas, antena Wi-Fi 802.11b/g/n con soporte ad-hoc para tres dispositivos simutáneamente y un procesador TI A8 a 650MHz para controlarlo todo.

Su uso es muy sencillo, basta con conectar el cable y a través de un interfaz web podemos configurarlo para que se copie o muevan datos directamente a otros dispositivos o a la nube utilizando servicios como iCloud, Dropbox o box.net.

Su precio cuando salga al mercado será de 100 dólares pero para aquellos que decidan ayudar a través de KickStarter será de 70 dólares, nada mal por la enorme facilidad que nos aporta.

Eso sí, no esperes que conectándolo mágicamente tus gadgets tengan acceso a internet ni que tengas Netflix en tu cámara de fotos. [CloudFTP]

OpenSUSE llega a versión 12.1, con importantes cambios

OpenSUSE llega a versión 12.1, con importantes cambios:

Filed under: , ,

La popular distribución Linux con el saurópsido escamoso verde, incorpora el último y más moderno kernel con su novísima versión 12.1,. El nuevo OpenSUSE incluye, entre otras cosas, GNOME 3.2, además de KDE, Chromium 17 y Firefox 7. En el sector de los servidores se habla de nuevas herramientas, como WebYaST, Horde 4, y la posibilidad de funcionar en la útil nube Amazon EC2.

¿Interesado? Pues mejor deja para otro momento el buscar la definición de saurópsido, y haz clic en el enlace Leer para descargar el software.

[Vía The Inquirer]

Read | Permalink | Email this | Comments

Un paso más cerca de los ordenadores ópticos

Un paso más cerca de los ordenadores ópticos:

Photonic Crystal
En un esfuerzo para construir chips más rápidos cada día, muchos investigadores están trabajando en la posibilidad de construir ordenadores ópticos. En estos ordenadores, la información está codificada en forma de fotones en lugar de electrones, permitiendo que grandes cantidades de datos se procesen simultáneamente.

Pero antes de que podamos pensar en un ordenador óptico, hace falta diseñar una estructura que pueda manipular la luz a nuestro antojo. Actualmente, los ordenadores funcionan a partir de semiconductores que permiten que la electricidad los atraviese o no. De esa forma somos capaces de diseñar puertas lógicas (AND, OR, XOR, etc.) Por analogía, los computadores ópticos deberían emplear semiconductores ópticos que permitan que una amplica gama de longitudes de onda los atraviese o no a voluntad.

La fabricación de estructuras 3D que permitan controlar la luz, no es una tarea sencilla, ya que la tecnología actual implica la construcción de estas estructuras capa por capa sobre el propio chip. Esta técnica resultaría muy lenta y costosa para la fabricación de chips ópticos 3D.

Sin embargo, un equipo de investigadores de los Países Bajos, dirigido por el profesor Willem Vos del MESA+ Institute en la Universidad de Twente (Eindhoven), la empresa ASML y el Instituto TNO, han desarrollado la primera estructura 3D capaz de controlar la emisión de luz. Este elemento está formado por cristales fotónoicos que poseen una estructura artificial de diamante que está grabado en una oblea de silicio usando métodos compatibles con CMOS (uso de transistores pMOS y nMOS para la construcción de transistores).

“Para poder conseguir una banda fotónica prohibida, es fundamental contar con estructuras 3D a nuestro antojo. Nuestro trabajo es la demostración, por primera vez, del control radical de la emisión espontánea de luz por medio de una banda prohibida fotónica”, afirman Willem Tjerkstra y Léon Woldering, de la Universidad de Twente.

Los investigadores describieron cómo fabricar estas estructuras 3D en dos recientes estudios. A partir de obleas de silicio cristalino, los investigadores grabaron, en primer lugar, un conjunto de poros en un patrón rectangular en la parte superior de las obleas. Para ello, utilizaron técnicas avanzadas de litografía UV, en el que una cámara gigante emplea luz ultraviolea para proyectar la estructura de poros sobre la superficio de silicio. Esta luz crea una máscara con millones de diminutos poros. A continuación, emplearon un proceso de grabado de plasma que se utiliza comúnmente en la fabricación de chips para crear una serie de nanoporos sobre la oblea de silicio.

Tras esto, el grupo de científicos grabaron un conjunto de poros en la misma forma rectangular en la parte delgada de la oblea, por lo que este conjunto de poro atraviesa al conjunto inicial en un ángulo de 90º. El patrón de la máscara debe estar alineado con la mayor precisión posible, con el fin de que los poros queden perpendicularmente alineados con el primer conjunto.

Tal y como explicaron los investigadores, este proceso de fabricación resulta en dos avances significativos: se compone únicamente de dos pasos de grabado y no requiere un equipo especializado. Estos resultados se han publicado en Journal of Vacuum Science and Technology y en Advanced Functional Materials.

Vía | R.W. Tjerkstra, L.A. Woldering, J.M. van den Broek, F. Roozeboom, I.D. Setija, and W.L. Vos. “A method to pattern etch masks in two inclined planes for three-dimensional nano- and microfabrication.” Journal of Vacuum Science and Technology B. (soon online)

Vía | J. M. van den Broek, L. A. Woldering, R. W. Tjerkstra, F. B. Segerink, I. D. Setija, and W. L. Vos. “Inverse-Woodpile Photonic Band Gap Crystals with a Cubic Diamond-like Structure Made from Single-Crystalline Silicon.” Adv. Funct. Mater. 2011. DOI:10.1002/adfm.201101101

Google saca cuentas: 200 millones de dispositivos Android activados, 550.000 nuevas activaciones todos los días

Google saca cuentas: 200 millones de dispositivos Android activados, 550.000 nuevas activaciones todos los días:

Filed under: , ,

Más madera para las broncas entre fanáticos de los distintos sistemas operativos móviles. Durante el evento These Go To Eleven, Google ha anunciado que las activacaciones de Android ya han superado los 200 millones de dispositivos, y el ritmo está siendo además de lo más saludable. Todos los días se activan aproximadamente 550.000 nuevos aparatos con un pequeño robot verde en su interior, que vienen a ser 50.000 más que en junio, y 150.000 de los registrados por las antenitas de Android allá por mayo, cuando estaban activándose unos 400.000 dispositivos. Aún no han llegado a los 250 millones de Apple, pero a esta velocidad, caeran más pronto que tarde.

Permalink | Email this | Comments

FastRunner, ahora DARPA se atreve con los avestruces robóticos

FastRunner, ahora DARPA se atreve con los avestruces robóticos:

¿Te acuerdas del genial juego Joust? Pues puede que en el futuro puedas hacer combates montado en avestruces sin que PETA te la líe gracias al “avestruz” robótico FastRunner.

Está financiado por DARPA, como ya pasaba con el genial BigDog, y esperan que alcance velocidades de hasta 80km/h y pueda cruzar por todo tipo de terreno. Lo de esconder la cabeza en el campo de batalla se lo están pensando.

Pinche aquí para ver el vídeo

Los ingenieros responsables son un equipo conjunto del MIT y Florida Institute of Human and Machine Cognition. Encargándose los primeros de los algoritmos de alto nivel, y los segundos de la construcción y algoritmos de movimiento.

Por ahora se están probando simulaciones que consigan una velocidad de 32km/h en superficie llana y regular y unos 16km/h en irregular. Tras la simulación se terminará de construir, aunque ya va por el 40% con un diseño ultraligero de las patas a base de tendones y un sólo actuador.

El objetivo es un robot de 1,4m de altura, 30kg de peso y que llegue fácilmente a los 44km/h para en un futuro alcanzar una velocidad máxima de más de 80km/h.

Eso sí, esperemos que el diseño final no tenga esa horrible cabeza E.T.riana y que la chocobicen un poco, porque si no parece más bien un equipo de música con patas. [IEEE Spectrum]

¿Veremos la Xbox 720 en el CES 2012?

¿Veremos la Xbox 720 en el CES 2012?:

Parece que Microsoft, igual que con la Xbox 360, se quiere volver a adelantar en la nueva generación de videoconsolas y cada vez más rumores apuntan a una posible presentación o al menos pequeña muestra de la supuesta Xbox 720, de teórico nombre Loop, dentro de muy poquito, concretamente en el CES 2012.

Lo que esta vez ha encendido la chispa, es que probablemente Ubisoft Montreal ya está empezando a desarrollar juegos para la nueva consola.

El origen de todo esto viene en que los ordenadores que están utilizando para desarrollar dichos juegos han sido renovados con hardware compatible con lo que supuestamente se utilizará en la nueva consola.

Se trata pues de tarjeta gráfica procedente de AMD y un procesador de 6 nucleos, aunque todavía no hay más detalles y todas las empresas no confirman ni comentan nada sobre el tema. Pero el desarrollador que ha filtrado las cosas asegura que los kits de desarrollo se empezarán a distribuir antes de navidades.

Pues ya lo sabéis, puede que en Las Vegas este enero sepamos si todo esto es una realidad y la supuesta Xbox 720 es en realidad la llamada Loop que todo el mundo parece asegurar que se nos viene encima. [dailymail]

Nuevas evidencias para demostrar la presencia de agua en la luna Europa de Júpiter

Nuevas evidencias para demostrar la presencia de agua en la luna Europa de Júpiter:

Jupiter's moon
Un grupo de científicos de la Universidad de Texas (Austin) ha descubierto, dentro dentro de la corteza helada de la luna Europa de Júpiter, lo que parece ser un cuerpo de agua en estado líquido. Este cuerpo tiene un volumen similar a los Grandes Lagos de América del Norte: 5 lagos situados entre EE.UU. y Canadá y con 245.200 km2 de agua.

El agua de estos lagos podría representar un hábitat potencial para la vida. Britney Schmidt, profesor del Austin’s Institute for Geophysics en la Universidad de Texas, anhela encontrar muchos más en las demás regiones superficiales de la cáscara de Europa.

Además, estos lagos se encuentran cubiertos por capas de hielo flotante que parecen estar desmoronándose, lo que proporcionaría un mecanismo para la transferencia de nutrientes y energía entre la superficie y un vasto océano que se infiere podría estar debajo.

Una de las opiniones de la comunidad científica es la siguiente: “Si la capa de hielo es gruesa, es malo para la biología, ya que podría significar que la superficie no se comunica con el océano subyacente”.

Cuatro pasos

Los científicos se centraron en las imágenes de la nave Galileo que muestran una serie de superficies circulares. Basado en procesos similares que ocurren en la Tierra, los investigadores han desarrollado un modelo de cuatro pasos para explicar cómo se forma estas estructuras en Europa. No obstante, concluyen en observaciones contradictorias, ya que en algunas parece indicar que la capa de hielo es gruesa y en otras que es delgada.

El grupo de investigadores opina que su modelo es correcto, basado en observaciones de la luna Europa desde la nave Galileo y la Tierra. Sin embargo, debido a que estos supuestos lagos se encuentran a varios kilómetros por debajo de la superficie, la única confirmación real de su presencia vendrá de una futura nave espacial que se diseñe para explorar esta capa de hielo.

Vía | University of Texas at Austin
Más información | Active formation of ‘chaos terrain’ over shallow subsurface water on Europa,” will appear as an advance online publication of the journal Nature on Nov. 16. (DOI: 10.1038/nature10608)

Images Credit | NASA/University of Texas at Austin/Johns Hopkins University Applied Physics Laboratory/ Lunar and Planetary Institute

El papel de los claratos en el máximo térmico

El papel de los claratos en el máximo térmico:

El máximo térmico del Paleoceno-Eoceno estaría causado por la liberación de gases de efecto invernadero de los hidratos de metano oceánicos.

Foto

Según una idea controvertida, la liberación de cantidades masivas de gases de los hidratos de metano congelados del fondo marino hace 65 millones de años estaría asociada a unos de los más grandes cambios climáticos desde la desaparición de los dinosaurios en el Cretácico (presumiblemente por culpa de un meteorito) 9 millones de años antes. Nuevos cálculos realizados por investigadores de Rice University muestran que este escenario es bastante posible.

Nadie está seguro sobre qué disparó el incidente, pero nadie duda de que la temperatura de la Tierra subió entonces unos 6 grados centígrados en promedio y afectó a todo el planeta durante 150.000 años hasta que el exceso de carbono en la atmósfera y océanos fue reabsorbido en sedimentos. Es lo que se ha llamado el Máximo Térmico del Paleoceno-Eoceno (MTPE), que se dio hace 56 millones de años.

Durante este evento se liberaron 2500 gigatoneladas de carbono que finalmente formó dióxido de carbono que terminó en la atmósfera y océanos.

En un nuevo informe publicado en Nature Geoscience se sugiere que en ese tiempo había tanta cantidad de hidratos de metano oceánicos como ahora, aunque la superficie del lecho marino ocupada por ellos no era muy grande.

Esto tiene que preocuparnos porque si se continúa el consumo de combustibles fósiles por parte de la humanidad algún día se puede disparar este mecanismo y que se entre en un ciclo de retroalimentación que libere todo el metano y dióxido de carbono de los hidratos oceánicos actuales.

En estudios anteriores se había echado la culpa del MTPE a la actividad volcánica, la quema de turba o al impacto de un meteorito rico en carbono, pero no había pruebas sólidas que apoyarán estas teorías. Según Gerald Dickens hay argumentos que apoyan la nueva teoría.

En los océanos, según mueren los organismos se depositan y descomponen en los sedimentos marinos. Bajo la alta presión y baja temperatura reinante allí, el metano liberado en el proceso de descomposición es atrapado junto a moléculas de agua y forma una sustancia congelada conocida como clarato o hidrato de metano, que es estable en una estrecha banda en el fondo del océano.

Unos océanos más cálidos justo antes del MTPE estabilizarían una zona de sedimentos con hidratos más fina que hoy en día y por eso algunos científicos discuten el papel de este material en el MTPE, debido a que su volumen total era menor que en la actualidad. Pero según esta nueva teoría los sedimentos de esa época eran mucho más rico en hidratos y susceptible de liberar más carbono. Al menos eso es lo que dicen los modelos que han usado.

La clave sería una presencia menor de oxígeno a la hora de oxidar la materia orgánica que se deposita sobre el suelo oceánico, lo que se enriquecería más los sedimentos oceánicos en hidratos. Además, una temperatura mayor haría que los microorganismos que descomponen la materia orgánica y forman metano fueran más efectivos.

Como resultado la zona de estabilidad, aunque menor que ahora, contendría más metano de lo que se creía y se llegaría a una cantidad similar a la que hay en la actualidad.

Aunque no está claro qué disparó el proceso en aquel entonces las implicaciones son claras en la actualidad. Los expertos implicados comparan a estos hidratos oceánicos con el condensador de un circuito que se carga lentamente, pero que puede liberar la carga de golpe. Según los autores es posible que esté pasando ya ahora mismo, por eso es importante el estudio del MTPE, porque la magnitud de carbono liberado por el ser humano es muy alta y constituye un instante desde el punto de vista geológico.

“Estamos bajo el riesgo de reproducir un evento de gran descarga de carbono, pero más rápido, debido a la quema de combustibles fósiles y puede ser severa si la disociación de hidratos se dispara de nuevo”, dice Guangsheng Gu, autor principal del artículo.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3659

Fuentes y referencias:

Nota de prensa.

Artículo original.

Foto: Claratos de metano quemándose, Universidad de Göttingen, GZG. Abt. Kristallographie.

Kinect empleado para ayudar a las personas con discapacidad visual

Kinect empleado para ayudar a las personas con discapacidad visual:

A pesar de los impresionantes avances en informática y en cámaras fotográficas conseguidos hasta la fecha, no se había descubierto la manera aplicar esta tecnología en personas con discapacidad visual.

Sin embargo, a principios de este año, Eric Berdinis y Jeff Kiske, dos estudiantes de ingeniería informática hackearon el famoso sistema Kinect de Microsoft. Convirtiéndolo en un sistema de cámaras situadas en la cintura que permite ofrecer a los usuarios información sobre su entorno inmediato, a través de vibraciones direccionales. El proyecto se llama Kinecthesia.

Aunque todavía está en una fase muy preliminar, Kinecthesia está dando mucho de qué hablar. Fue seleccionado como uno de los 10 proyectos en la conferencia Google’s Zeitgeist Young Minds, en la que siempre destacan proyectos innovadores.

Berdinis y Kiske comenzaron el proyecto como un trabajo de la asignatura Sistemas Integrados, impartida por el profesor Rahul Mangharam. Les encargaron desarrollar un dispositivo médico, por lo que la pareja de ingenieros comenzaron a explorar el sistema Kinect de Microsoft. Un dispositivo para videojuegos que utiliza múltiples cámaras para transladar los movimientos del jugador en acciones en la pantalla.

Comprendiendo la tecnología que ofrecía Kinect para traducir los detalles de su alrededor en información digital, el equipo empezó a investigar una manera para integrar esta tecnología en un dispositivo portátil. El conseguir que las cámaras se comunicasen por voz con BeagleBoard, un ordenador en miniatura, fue el primer paso.

“Kinect no estaba pensado para trabajar con otro dispositivo que no fuera la Xbox, por lo que modificar su código fuente para que funcionara en este procesador, fue uno de los mayores desafíos”, afirma Berdinis. Además, aunque Kinect es muy bueno para la determinación de la distancia a los objetos, otro desafío fue decidir cómo transmitir esta información al usuario.

Kinecthesia

“No queríamos abrumar al usuario con señales de audio o con vibradores por toda la cintura”, afirma Berdinis. “A través de ensayo y error descubrimos que únicamente eran necesarias tres zonas donde colocar los vibradores“.

Estos tres timbres, situados a la derecha, izquierda y en el centro, comienzan a vibrar cuando los objetos empiezan a acercarse y aumentan su intensidad cuando se aproximan al usuario.

Vía | University of Pennsylvania
Más información | http://www.kinecthesia.com

El código fuente de Ice Cream Sandwich ya disponible para descarga

El código fuente de Ice Cream Sandwich ya disponible para descarga:

Filed under: ,

La versión 4.0 de Android, denominada “Ice Cream Sandwich“, ya casi puede ser descargada. Decimos “casi” porque la gente del Android Open Source Project explica que al ser un paquete muy grande no han terminado todavía de subir todos los archivos, y advierten que los desarrolladores apurados podrían terminar con una descarga incompleta si empiezan a bajar el código antes de tiempo. Por suerte, proporcionarán un aviso oficial tan pronto hayan subido todos los datos a los servidores git.

Los archivos disponibles forman la versión 4.0.1 de ICS, que es la misma que está siendo instalada en los teléfonos Galaxy Nexus, disponibles dentro de muy poco.

Si sabes trabajar con código fuente (es decir, si no le temes a la compilación), prepara tu conexión para descargar el nuevo androide tan pronto la gente del AOSP diga que está listo.

Read | Permalink | Email this | Comments

Ni 1, ni 2, ni 3… AMD te quiere dar 16 núcleos en sus nuevos procesadores Opteron

Ni 1, ni 2, ni 3… AMD te quiere dar 16 núcleos en sus nuevos procesadores Opteron:

La tecnología no para y más tarde o más temprano tenía que llegar, por fin aparecen los primeros procesadores x86 con 16 núcleos y esta vez es cosa de AMD, que con sus nuevos Opteron 6200 mejora aún más los 12 núcleos de su anterior Opteron 6100, no sólo en cantidad sino también en calidad.

Vale, están pensados para servidores y no para tu sobremesa de siempre, pero si tienes una empresa o realmente quieres que tus planes de dominación mundial tenga la potencia de procesado que se merecen, estás de enhorabuena.

No sólo tienen 16 núcleos, sino que son entre un 25 y un 30% más rápidos que los anteriores. Se basan en el diseño Bulldozer, que consigue mejoras de eficiencia consumiendo menos.

En total son 5 nuevos procesadores, que van desde los 1,6GHz hasta los 2,6GHz, con consumos de los 85 a 140W y precios entre 523 y 1019 dólares. Además gracias a la tecnología Turbo Core se pueden overclockear entre 0,5 y 1GHz más, y soportan hasta 384GB de RAM.

Junto a estos saldrán también los Opteron 4200, con “tan solo” 6 u 8 núcleos entre 1,6 y 3GHz, consumos de 35 a 95W y precios entre 125 y 377 dólares.

Me pregunto como irá el Wolfenstein 3D en uno de estos… ¿Conseguirá ir tan rápido que llegue un momento en el que te enfrentes a tu yo del futuro creando una paradoja videojueguiltemporal? [AMD]

China consigue un segundo acoplamiento espacial exitoso

China consigue un segundo acoplamiento espacial exitoso:

Shenzhou-8

La nave espacial china Shenzhou-8 y el módulo Tiangong-1 consiguieron acoplarse por segunda vez de manera exitosa, demostrando una vez más los importantes avances logrados por dicha nación para el establecimiento de su propia base espacial permanente.

Recordemos que a principios de mes ambas naves se acoplaron permaneciendo unidas en órbita por doce días. Posteriormente ambas naves se separaron de forma automática en una maniobra que se extendió por media hora y que se llevó a cabo durante la fase diurna de la órbita, con el objetivo de demostrar que los sensores ópticos operaban correctamente incluso estando en presencia de los rayos del Sol.

Luego de una serie de maniobras previamente programadas los operadores en Tierra dieron el vamos para un segundo acoplamiento, procedimiento que se llevó a cabo sin ningún tipo de problema desde el punto de vista técnico.

Ahora ambas naves se mantendrán unidas por lo menos durante dos días, momento en el que volverán a desacoplarse para que la Shenzhou-8 regrese a la Tierra el próximo 17 de noviembre.

El programa espacial chino contempla el envío para el próximo año de una novena nave Shenzhou para acoplarse con el módulo Tiangong-1, con la salvedad de que dicha nave transportaría una tripulación integrada por la primera mujer astronauta del país asiático.

Link: Shenzhou 8 aces second docking test in sunlight (SpaceFlight Now)

La zona Goldilocks es mayor de lo que creíamos

La zona Goldilocks es mayor de lo que creíamos:

Zona habitable
En 1959, S. Huang definió la zona de habitabilidad estelar como aquella región alrededor de una estrella en la que, de encontrarse ubicado un planeta o un satélite, la luminosidad y el flujo de radiación incidente permitiría la presencia de agua en estado líqudo sobre su superficie. Y como sabemos, el agua líquida es un requisito fundamental para la vida que conocemos.

Hoy aparece una nueva investigación que asegura que esta zona, conocida como zona Goldilocks, podría ser hasta un 30 por ciento mayor de lo que se pensaba. Esto hace que sea mucho más probable encontrar vida en nuestra galaxia. El estudio analizó la relación entre la radiación proveniente de estrellas enanas —red dwarfs— y la calidad de reflexión de nieve e hielo en los planetas que las orbitan.

Las enanas rojas son más frías que las estrellas tipo G, como nuestro Sol, y emiten energía en longitudes de onda mayores. La mayor parte de esta energía es absorbida por la nieve y el hielo, mientras que poca es reflejada hacia el espacio. Esto hace que se caliente la superficie del planeta y el consecuente derretimiento de parte del hielo, produciendo agua líquida.

“Sabíamos que las enanas rojas emiten energía en longitudes de onda diferentes, y queremos saber exactamente que podría significar para el albedo —razón entre la energía luminosa que difunde por reflexión una superficie y la energía incidente— de planetas que orbitan estas estrellas”, explicó el Dr. Manoj Joshi del National Center for Atmospheric Science que ha llevado a cabo esta investigación junto a Robert Haberle, del NASA Ames Research Center.

Las enanas rojas, o estrellas M, constituyen el 80 por ciento de las estrellas en nuestra galaxia, y se cree que son de muy larga vida, por lo que la identificación de sus zonas habitables es un objetivo importante.

El efecto albedo de la nieve y el hielo es importante para el clima, porque es parte de lo que se conoce como un bucle de retroalimentación positiva. Un aumento en la cubierta de hielo refleja más radiación, mayor enfriamiento del planeta y por consiguiente, la formación de más hielo. Por el contrario, una pérdida de la capa de hielo implica menos radiación reflejada y más calor absorvido, lo que implica un mayor calentamiento del planeta y más pérdida de hielo. Así que, cualquier cosa capaz de reducir el albedo promedio ,tendrá consecuencias para el clima de esos planetas.

A pesar de nuestra capacidad para explorar el espacio, hasta el momento sólo podemos especular cómo serían los planetas situados fuera de nuestro sistema solar.

Vía | PlanetEarth Online

Google X, el laboratorio secreto donde la gran G planea el futuro

Google X, el laboratorio secreto donde la gran G planea el futuro:

xfiles

La “sustancia X” es la que hizo superpoderosas a las chicas superpoderosas, y la X es también la letra de los Archivos Secretos, de modo que Google no podía elegir otra letra para su laboratorio secreto, ubicado en un lugar no revelado ni por Google Maps, donde la compañía imagina el futuro superpoderoso.

El New York Times, aunque no pudo ir, consiguió entrevistas bajo anonimato con algunas personas que trabajan en este laboratorio clandestino – “ninguno quiso hablar con atribución porque Google mantiene tan en secreto el esfuerzo que muchos empleados ni siquiera saben que existe el laboratorio”, señala el periódico.

Algunas ideas que estarían en desarrollo en este lugar son refrigeradores conectados a internet que te permiten ordenar pedidos de comida cuando queda poco, platos de comida que postean en Twitter lo que comes, robots que van a la oficina por ti, ascensores espaciales, y otros. Todo está en etapa conceptual por el momento, lejos de ser realidad.

Google, al parecer, quiere mantenerse como un lugar innovador, y el laboratorio sería el lugar donde hacer investigaciones que rompan con lo que existe. Una de las ideas que habría salido de aquí sería el auto que se maneja solo, proyecto que podría llegar a las calles de Estados Unidos.

Según el New York Times, el co-fundador Sergey Brin está estrechamente relacionado con el laboratorio, y creó la lista de ideas a desarrollar en conjunto con Larry Page. El laboratorio es administrado “tan misteriosamente como la CIA”, según uno de los entrevistados, y está lleno de ingenieros de software, expertos en robótica e ingenieros eléctricos, no sólo de Google sino también contratados de otras empresas como Microsoft, Nokia, el MIT, Stanford, Carnegie Mellon y la New York University.

Entre los grandes nombres se cuenta a Sebastian Thrun, profesor de Stanford experto en robótica e inteligencia artificial, Andrew Ng, también profesor de la misma universidad que aplica neurociencia en la inteligencia artificial para enseñar a los robots a operar como personas; y Johnny Chung Lee, especialista en interacción humano-computadora, que participó en el desarrollo de Kinect.

Google probablemente mantiene todo en secreto porque se trata de un asunto que pone nerviosos a los inversionistas. Si bien el laboratorio puede producir el próximo gran éxito de la empresa, también puede producir grandes fracasos. Larry Page ha intentado calmar a los preocupados indicando que los proyectos locos son sólo una parte pequeña de la empresa. Aunque lo suficientemente grande para mantener a Google creando cosas locas.

Link: At Google X, a top-secret lab dreaming up the future (New York Times vía CHW)

e-planning.net ad

AMD Opteron 6200 "Interlagos" y 4200 "Valencia" ven la luz de manera oficial

AMD Opteron 6200 “Interlagos” y 4200 “Valencia” ven la luz de manera oficial:

Filed under:

Con un ligero retraso sobre la fecha inicialmente prevista (Octubre), AMD acaba de anunciar la llegada de su nuevos Opteron 6200 y 4200, también conocidos como Interlagos y Valencia, pertenecientes a la gama profesional de la arquitectura Bulldozer. Dichos chips pueden presumir de contar con ocho núcleos dobles que equivalen a 16 individuales gracias al doble encapsulado, con las mejoras de consumo y espacio que ello supone. Sin ir más lejos, el fabricante asegura que, comparado con un Intel Xeon “de prestaciones similares”, su creación resulta un 84 por ciento más rápida, un 73 % más eficiente y que, finalmente, utiliza la mitad de energía.

Ya puestos, los de Sunnyvale han aprovechado la nota de prensa para confirmar que 2012 será el año de su plataforma Opteron 3000, al recibir entre sus filas al nuevo Zurich, también basado en las directrices de la familia Bulldozer y especialmente diseñado para servidores de consumo ultra bajo, aunque esta vez a nivel doméstico. Impacientes estamos por conocer a cuánto asciende el próximo récord.

Read | Permalink | Email this | Comments

Fraunhofer crea una araña robot imprimible para explorar zonas contaminadas y hacerte compañía en los días de lluvia

Fraunhofer crea una araña robot imprimible para explorar zonas contaminadas y hacerte compañía en los días de lluvia:

Filed under: ,

Tranquilo, ya no hace falta que siga buscando en internet los planos para crear una cascada de resonancia y conseguir tu propio headcrab asilvestrado. Los ingeniosos chicos del Instituto de Ingeniería Productiva y Automatización de Fraunhofer-Gesellschaft han desarrollado un pequeño robot-araña de muy bajo coste pensado para ser utilizado en situaciones de emergencia, transportando cámaras y equipos de medición a zonas con un riesgo químico demasiado elevado para ser exploradas por seres humanos.

El autómata ha sido creado con una impresora 3D usando el proceso de sinterización, básicamente deposita de forma ordenada sucesivas capas de un fino polvo que es fundido por un rayo láser dando forma a sus componentes, desde el propio cuerpo a las patitas neumáticas articuladas. Como buen arácnido, el robot posee ocho extremidades, cuatro para caminar, y otras cuatro que le ayudan a salvar posibles obstáculos, e incluso puede saltar usando un pequeño compresor. Nada sabemos sobre sus posibles planes de producción, pero aparentemente, la idea es que sean tan baratos como para convertirlos en robots de usar y tirar.

Read | Permalink | Email this | Comments

FastRunner, el avestruz de DARPA que no esconderá su cabeza bajo tierra

FastRunner, el avestruz de DARPA que no esconderá su cabeza bajo tierra:

fastrunner

El FastRunner (a la izquierda en la imagen) es uno más de los artefactos militares inspirados en la naturaleza. En este caso, emula a un avestruz y si son fanáticos de Metal Gear Solid, probablemente les suene familiar al aparato que se aprecia a la derecha.

Fue ideado por el equipo del doctor Russ Tendrake en el MIT, medirá 1,40 metros y pesará no más de 30 kilos y correrá a una velocidad de 32 km/h (él insiste en que podrá ir incluso más rápido) con sólo un accionador en cada pata. Y lo mejor de este avestruz es que jamás enterrará su cabeza bajo tierra si es que las cosas se ponen un tanto complicadas en su entorno.

Por ahora sólo es un concepto de DARPA (que ya ha ideado otros artefactos militares bio-inspirados) y tampoco es claro cuáles serían sus encomendaciones, pero se me ocurre que tendrá relación con trabajo de espionaje en suelo enemigo, por el bien de la humanidad, obvio. De todas maneras, más allá de correr y la velocidad a la que pueda trasladarse, quisiera ver que sea capaz de desviar su trayectoria o detenerse, sin caerse. O, en caso de tropezar o chocar, sería bueno saber si está pensado cómo se volvería a poner de pie.

A mí me quedan mis dudas respecto de si la tecnología militar necesita tanto emular a la naturaleza. De todas maneras, el mecanismo de sus piernas se ve espectacular:

Click aqui para ver el video.

Link: FastRunner robot does seem inspired by Metal Gear Solid (UberGizmo)

Estrellas primordiales no tan pesadas

Estrellas primordiales no tan pesadas:

Las primeras estrellas podrían haber sido mucho más ligeras de lo que se había pensando en un principio.

Foto

Diagrama con los resultados de una simulación. Fuente: NASA/JPL-Caltech/Kyoto Univ.

No podemos ver las primeras estrellas que se formaron en el Universo, al menos no todavía. No podemos saber directamente cómo fueron, pero podemos hacer modelos sobre ellas y tratar de ver cómo pueden crecer y formarse.

Hasta ahora se creía que esas primeras estrellas eran muy pesadas, con masas cientos de veces superiores a la del Sol. Ahora, nuevas simulaciones realizadas en JPL de la NASA muestran que basta con que sean decenas de veces más pesadas que el Sol. El límite inferior según estas nuevas simulaciones, que pueden llevar semanas de cálculos en los más rápidos computadores, es de 43 masas solares. Así que las primeras estrellas fueron masivas, pero no tanto como se creía. Los investigadores implicados se quedaron muy sorprendidos por estos resultados.

Según Takashi Hosokawa las simulaciones revelan que la formación de estas estrellas se para antes de lo esperado y como resultado tienen menores masas.

En un principio, unos ciento de millones de años después del Big Bang, el Universo consistía en nubes de hidrógeno y helio. Después las primeras estrellas entraron en ignición, pero no se sabe muy bien cómo se formaron.

Es fácil formar estrellas en la actualidad a partir de nebulosas de gas y polvo. Por un lado está la gravedad que intenta que esa nube colapse, es decir, tenderá a comprimir el gas. Para ello se necesitan “semillas” con gas más denso en algún lugar y la gravedad simplemente opera. Pero, como todo el mundo sabe, un gas que se comprime tiende a calentarse. Y un gas caliente tiende a expandirse y esto lo hace en este caso en sentido opuesto al dictado por la gravedad. Este proceso de colapso es favorecido en la actualidad por elementos más pesados, como el carbono, que permiten que el gas que está colapsando se enfríe y no se expanda. Los elementos pesados ayudan radiar el exceso de calor y a que la nube de gas colapse. Pero al comienzo del Universo no había tales elementos pesados.

Los científicos han teorizado cómo podrían colapsarse el gas que formó las primeras estrellas sin elementos pesados. Una solución es que haya una cantidad tan grande de gas que no se necesite la presencia de elementos pesados, polvo o moléculas. Básicamente la gravedad monopoliza el proceso. Los primeros modelos indicaban que estas primeras estrellas tenían que tener masas de miles de veces la del Sol. Luego, modelos posteriores predecían masas de cientos de veces la del Sol (2008, Christopher McKee, de la Universidad de California en Berkeley). Ahora parece que sólo se necesitan masas de decenas de veces la del Sol.

En sus simulaciones este equipo del JPL revela que la materia en la vecindad de una estrella primordial en formación se calienta a muy alta temperatura, hasta los 50.000 Kelvin concretamente (ocho veces y media la temperatura superficial del Sol). Este gas tan caliente escapa del pozo de gravedad de la estrella en formación en lugar de caer, así que la estrella en formación para su crecimiento antes de lo que se pensaba y no alcanza un tamaño tan descomunal.

Este resultado explica el enigma de las primeras supernovas. Cuanto más masiva es una estrella más rápidamente consume su combustible nuclear y, por encima de cierta masa, explota como una supernova enriqueciendo el medio con elementos pesados. Si las primeras estrellas eran tan masivas como se creía, entonces tenían que explotar al poco tiempo como una clase especial de supernova superviolenta y dejar un patrón específico de elementos pesados. Algo que no se ha encontrado hasta ahora. La respuesta a este enigma es sencilla: simplemente todas esas estrellas en explosión no estaba ahí porque las estrellas no eran tan masivas. Como máximo habría explosiones de supernova convencionales que dejarían el patrón de elementos pesados que se observa.

Lo bueno es que se espera que el telescopio espacial James Webb pueda observar esa época del Universo y aclarar este asunto directamente.

Por otro lado, Volker Bromm de la Universidad de Texas también ha llegado a la misma conclusión con otro modelo computacional. Según este investigador y sus colaboradores la formación de estas primeras estrellas se pararía incluso en las 30 masas solares en la mayoría de los casos. Así que parece que este capítulo está más o menos cerrado a la espera de datos observacionales directos.

Quedaría por comentar cómo una estrella hecha de sólo hidrógeno y helio puede tener reacciones de fusión sin la mediación de ciclos catalíticos formados por elementos más pesados, pero esa es otra historia.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3656

Fuentes y referencias:

Artículo de Bromm en ArXiv.

Rayo X supermegahiper potente investigará el centro de la Tierra

Rayo X supermegahiper potente investigará el centro de la Tierra:

id24

Más complicado que explorar cuerpos a miles de unidades astronómicas, es saber cómo es el centro de nuestra propia Tierra; donde se gestan los campos magnéticos y los terremotos que tanto sufrimos. Los experimentos que buscan emular las condiciones que más o menos suponemos que hay allá abajo, son justamente eso: inexactos por desconocer las reales características de las primeras capas de la bola que habitamos.

Pero unas nuevas instalaciones de transmisión de rayos X podría mejorar este aspecto y dar una idea más fidedigna de lo que ocurre en el núcleo terráqueo. El European Synchrotron Radiation Facility (ESRF), ubicado Grenoble, Francia, está inaugurando su nuevo rayo ID24, que comenzará a ejecutar experimentos la próxima primavera (boreal). El aparato permitirá a los científicos registrar temperaturas y presiones exactas en los metales que interactúan en el centro del planeta y así estudiarlos y comprenderlos de mejor manera. De igual manera, se podrán estudiar nuevos catalizadores químicos y tecnología de baterías, entre otras reacciones atómicas.

Todo esto a través de un sincrotrón (un tipo de acelerador de partículas) con el que se aprovecha la radiación electromagnética de las partículas para generar imágenes científicas. Las fuentes de luz del sincrotrón implementa una serie de campos magnéticos para doblar dicha radiación en diferentes longitudes de onda de luz.

Opera lanzándole un intenso rayo X a una muestra y observando la manera en que absorben los rayos los átomos de los diferentes elementos al interior de la muestra.

La línea de luz posee detectores de germanio que pueden tomar hasta un millón de mediciones por segundo, según el ESRF. De esta manera, los científicos podrían tomar una pequeña muestra de hierro, ponerlo en la línea de luz y calentarla a las temperaturas del núcleo terrestre y ver qué sucede.

El ID24 es el primero de ocho nuevos rayos de luz del ESRF y forma parte de una mejora de US$245 millones.

Link: Super-Powerful X-Ray Beam Will Probe the Center of the Earth (Pop Sci)

Investigadores crean el vehículo más pequeño del mundo

Investigadores crean el vehículo más pequeño del mundo:

nanocar

Investigadores holandeses liderados por Tibor Kudernac, de la Universidad de Twente, y Ruangsupapichat Nopporn, de la Universidad de Groningen, consiguieron desarrollar lo que podríamos llamar el vehículo eléctrico más pequeño del mundo: mide sólo seis nanómetros.

El “vehículo” en cuestión fue fabricado agrupando átomos formando una estructura del tamaño de una molécula, contando con cuatro ruedas que giran de manera independiente al ser cargadas con 500 mV (logrando una autonomía de 30 minutos).

Para cargar dichas ruedas los investigadores utilizan el mismo microscopio con el que observan el vehículo (microscopio de efecto túnel), con lo que se consigue que los electrones energicen cada rueda logrando que estas desplacen la estructura hacia adelante. Hasta el momento los investigadores han logrado que el vehículo se desplace 0,6 nanómetros luego de 10 estimulaciones eléctricas.

¿Y para qué sirve un vehículo tan pequeño? En realidad aún no existen una aplicación práctica, pero los investigadores señalan que gracias al estudio de este tipo de moléculas esperan lograr importantes avances en el desarrollo de máquinas a escala nanométrica.

Link: Nanoscale Car Built with Four-Wheel Drive (Scientific American)

Google Debuts Think Insights, Full of Info and Data Any Web Marketer Should Know

Google Debuts Think Insights, Full of Info and Data Any Web Marketer Should Know: With the amount of data that passes through Google servers each day, you can bet there’s a huge amount of useful info in there, for anyone that takes the time to analyze it. Google is now using that info with a new site dubbed “Think Insights with Google.”

It’s rather flashy and good looking, but don’t let that fool you, it’s filled with useful stats, info and analysis.

The site is aimed at marketers in particular, but anyone with some interest in the way people beh… (read more)