Archivo mensual: marzo 2013

Investigadores crean un cable de fibra óptica hueco capaz de alcanzar velocidades de 10 terabytes

Investigadores crean un cable de fibra óptica hueco capaz de alcanzar velocidades de 10 terabytes:
Filed under: ,

Investigadores crean un cable de fibra óptica hueco capaz de alcanzar velocidades de 10 terabytes

A día de hoy el núcleos de los cables de fibra óptica se fabrican con vidrio o plástico, unos materiales que, aunque funcionan a la perfección, afectan ligeramente a la transmisión de la luz ralentizando su envío. Con la intención de poner fin a este problema, investigadores de la Universidad de Southampton en Reino Unido han creado un cable de fibra óptica hueco relleno de aire que consigue alcanzar velocidades 1.000 veces más rápidas que los cables actuales. Esto se debe gracias a que la luz se propaga a una velocidad que alcanza en un 99,7% la velocidad de la luz, llegando a tasas de nada menos que 10 terabytes por segundo. Aunque la técnica no es completamente nueva, anteriormente se había desechado por presentar serios problemas de degradación a la hora de sortear esquinas, aunque este nuevo diseño ha reducido la pérdida de datos en unos más que aceptables 3,5 dB/km. ¿Listo para renovar la red local de casa?

[Foto: qwrrty, CC 2.0]

[Vía ExtremeTech, Gizmodo Australia]

Read | Permalink | Email this | Comments

OUYA, un vistazo más de cerca a la consola androide (¡con vídeo!)

OUYA, un vistazo más de cerca a la consola androide (¡con vídeo!):
Filed under:

ouya fotos

Hemos hablado tanto de ella que casi podríamos decir que es una vieja conocida de la portada, sin embargo, hasta ahora no habíamos podido disfrutar de ella en condiciones. Por suerte eso ahora ha cambiado, de forma que ya podemos ofrecerte un vistazo mucho más de cerca de la consola androide del momento, OUYA. El equipo ha posado frente a la cámara haciendo gala de un centro de control con cuerpo realmente diminuto, de atractivo acabado (aluminio cepillado) y que en absoluto resulta ruidoso.

En cuanto al gamepad, nos dicen que no da impresión de ser un producto barato y que su peso es bastante cómodo. De igual forma, los botones y sticks analógicos ofrecen una buena experiencia, aunque esta no se repite a la hora de hablar de los disparadores y botones laterales, que se sienten de peor calidad. El software por su parte sigue el mismo estilo simplista presente en el diseño del equipo, ofreciendo una interfaz muy básica divida en cuatro apartados: Jugar, Descubrir, Crear y Gestionar -en el vídeo que te dejamos tras el salto (en inglés), tienes oportunidad de ver un pequeño avance.

Continue reading OUYA, un vistazo más de cerca a la consola androide (¡con vídeo!)

Permalink | Email this | Comments

¿Se puede alcanzar el hiperrealismo en la tecnología?

¿Se puede alcanzar el hiperrealismo en la tecnología?:
Como a cualquiera, de vez en cuando me gusta ver alguna película de acción como The Avengers, Iron Man o cualquiera que sea simple, guión que no te haga pensar, simplemente sentarte y que los efectos especiales sean quienes te hagan disfrutar de una película. No es hasta después de verla, intentando recopilar todo lo que has visto, cuando de verdad te das cuenta que te has sentado en una butaca durante hora y media solo por ver algunos gráficos generados por ordenador y media docena de actores cuya interpretación es más que cuestionable. ¡Espera! ¿De verdad acabo de sentarme durante hora y media para básicamente ver un videojuego que no puedo jugar?
Ahí es cuando te das cuenta que la tecnología acaba de avanzar lo suficiente para hacerte creer que lo que acabas de ver es verdad, cuando no lo es, es una suma de varias escenas, CGI y un equipo técnico humano muy bueno.
Click aqui para ver el video.
No voy a afirmar que las películas con gráficos generados por ordenador sean nuevos o que es ahora, en 2013, cuando nos creemos estos efectos especiales. De la misma forma que las primeras películas de ciencia ficción usaron técnicas de montaje para crear “efectos especiales” y la gente se lo creía, nosotros inconscientemente creemos que lo que vemos se asemeja a la realidad por la simple razón de que nunca vimos algo tan avanzado.
La industria del CGI es muy fuerte en el mundo de las películas más comerciales. Aunque hemos visto verdaderas obras maestras sin usar tanto CGI (aun veo la primera película de Jurasic Park y me creo que es de verdad, ingenuo de mí), años después hemos visto intentos de crear películas con animación por ordenador que era completa y absolutamente imposible de creer (¿Hola Star Wars I/II/III?).
Todo el mundo se quedó maravillado con las posibilidades que nos dan los ordenadores cuando hablamos de crear recreaciones de personas. Recrear tan solo la cara de una persona es una tarea titánica, tanto que se ha tardado décadas en crear versiones que podamos decir se asimilan a lo que una cara de una persona es, los movimientos, las imperfecciones, la tensión de los músculos… Son demasiados datos que hay que aportar a una aplicación para que haga un render de todo.
Recuerda la película Final Fanasy de 2001. Hace más de una década de esta película cuando se presentó como “lo mejor que puede hacer un software y un montón de hardware” en animación. Y es cierto que todo el mundo se quedó boquiabierto con la increíble facilidad con la que se movían los personajes, las expresiones y lo que más marketing recibió, el pelo.

El pelo en la animación es más complicado porque cada pelo se mueve de una forma diferente a otro, lo que significa que un ordenador y un procesador gráfico tiene que ser capaz de controlar el movimiento prácticamente aleatorio de cada pelo de una persona. El resultado fue increíble, muchos creímos que se llegó a la casi realidad, la posibilidad de que un ordenador fuese capaz de generar una persona con un movimiento y unas reacciones creíbles.
No fue así. Tan solo tuvimos que ver como la potencia gráfica evolucionaba para comprender que lo que vimos no se parecía en nada a la realidad. De nuevo nuestro cerebro nos engañó.

La semana pasada, NVIDIA celebró su evento anual sobre gráficos, GPU Technology Conference o GTC. Durante el evento el CEO de NVIDIA, Jen-Hsun Huang presentó el poder gráfico del nuevo procesador GeForce GTX TITAN con la aplicación Face Works, desarrollado en ayuda con el ICT Graphics Lab de la Universidad del sur de California. Durante la presentación pudimos comprobar como se puede generar una cara con una calidad absolutamente bestial, como nada que hubiésemos visto antes.
Click aqui para ver el video.
De nuevo, aunque estamos ante una época en la que podríamos categorizar este tipo de tecnología como capaces de generar hiperrealismo, ¿cómo podemos estar seguro de ello?
Activision está desarrollando tecnología similar para dar más complejidad a las caras de los personajes y hacerlas más reales, pero aunque la flexibilidad y la capacidad de expresión de un personaje es importante, ¿nuestro cerebro será capaz de interpretarlo como algo “casi real”?
¿Existe un mal uso de este hiperrealismo? Tengo sentimientos encontrados con tal nivel poder gráfico en videojuegos. Tomemos como ejemplo el espectacular trailer del futuro Battlefield 4 que saldrá para otoño del norte-primavera del sur, en este 2013. El uso de todo el poder gráfico que nos dan las videoconsolas actuales, aunque parece que el juego será mucho más espectacular en su versión para PC dado a que las nuevas gráficas dan posibilidad a jugar con efectos más increíbles, según vemos en el trailer, se excede en algunos momentos de lo que el hiperrealismo puede hacer.
Click aqui para ver el video.
Los detalles de los destellos de luz directa, reflejos de luz en agua, la increíble calidad del polvo de tierra al pasar el personaje, la increíble destrucción capaz de poder generar… Todos son elementos muy creíbles que prácticamente te hacen estada viendo una película más que un videojuego. ¿Nos distraerá de la misión tal calidad de gráficos o simplemente aceptaremos que son increíbles, nos quedaremos mirándolos durante quince minutos y después simplemente, adaptarnos para que no interfiera en nuestra partida.
En definitiva, el hiperrealismo generado por ordenador ha conseguido siempre lo que pretendía, nos ha engañado para hacernos creer que lo que vemos es real y no una animación generada por ordenador.

La AMD Radeon HD 7990 nos dice hola con la manita… ¡y con 17 minutos de Battlefield 4!

La AMD Radeon HD 7990 nos dice hola con la manita… ¡y con 17 minutos de Battlefield 4!:
Filed under:

La AMD Radeon HD 7990 nos dice hola con la manita... ¡y con 17 minutos de Battlefield 4!

Ya podemos sentir el sonido del E3 acercándose en la lontananza. La Games Developers Conference nos está permitiendo conocer de forma anticipada alguna de las novedades que sin duda veremos con mayor detalle en la feria de Los Ángeles, y una de las sorpresas que nos ha deparado esta cita dirigida a la comunidad de desarrolladores ha sido doble: Battlefield 4 y la nueva AMD Radeon HD 7990. Dice y EA desencajaron quijadas en masa con el trailer de su nuevo FPS, solo para que poco después AMD sacara pecho para presumir de que todo el vídeo había sido grabado en un PC equipado con una Radeon HD 7990.

La tarjeta, cuya existencia ha sido confirmada de forma algo sui géneris por la gente de AMD (técnicamente ya hay fabricantes que ofrecen tarjetas con mútiples GPU Tahiti; es ahora cuando AMD presenta su propio diseño oficial), combina dos GPU HD 7970 y ofrecerá dos conectores mini DisplayPort y otros tantos mini HDMI en un formato de doble ranura. El resto de sus detalles técnicos no están particularmente claros, y otro tanto podemos decir del precio.

Afortunadamente los chicos de AnandTech son atentos como nadie, y nos cuentan que este nuevo monstruito posiblemente sea bastante silencioso gracias a su diseño de triple ventilador despejado, si bien debería requerir una caja amplia y bien ventilada para evitar problemas. Además, dada la eficiencia de su GPU, el consumo no debería superar los 375 W, que no sería una mala noticia si en tus planes de ampliación no entra una nueva fuente de alimentación.

Por supuesto, no hay mejor prueba de rendimiento que una demo con un juego real, así que ya puedes ir haciéndote a la idea de la potencia que atesora la nueva HD 7990 degustando los 17 minutos del trailer de Battlefield 4. Que aprovechen.
Continue reading La AMD Radeon HD 7990 nos dice hola con la manita… ¡y con 17 minutos de Battlefield 4!

Read | Permalink | Email this | Comments

Un paso más hacia los ordenadores cuánticos

Un paso más hacia los ordenadores cuánticos:
step
Científicos de la Universidad de Yale han descubierto una nueva forma de manipular señales de microondas que podrían ayudar, todo a largo plazo, a desarrollar una computadora cuántica, una potente herramienta que revolucionaría el tratamiento de la información a través de una velocidad y un poder sin precedentes.
Al igual que las clásicas, las computadoras cuánticas deben ser capaces de recibir, almacenar y manipular la información con el fin de realizar cálculos. Pero la frágil naturaleza de la información cuántica, que existe como un 0, 1 o ambos al mismo tiempo, plantea desafíos.
En la investigación, publicada en la revista Nature, los físicos de Yale reportan un avance en el desarrollo de mecanismos de memoria.
El avance consiste en fotones, las unidades más pequeñas de señales microondas, que pueden servir como memoria de una computadora cuántica, al igual que la memoria RAM de un ordenador normal. Los fotones pueden transportar y almacenar información cuántica durante mucho tiempo, debido a que interactúan débilmente con el medio de comunicación (cables, aire) por el que normalmente viajan. La debilidad de estas interacciones evita que los fotones sean absorbidos por el medio y conserven la información cuántica, una vez que se hayan codificado.
En el artículo de Nature, los investigadores informan que la creación de un medio artificial hace que los fotones repelan a otros fotones, permitiendo una eficiente codificación no destructiva y, por consiguiente, la manipulación de la información cuántica.

Nuestra experiencia ha demostrado que podemos crear un medio en el que por un lado nos permita manipular el estado del fotón, y por el otro no los absorba, ya que destruiría la información cuántica almacenada en ellos

Dijo Gerhard Kirchmair, investigador postdoctoral en la Universidad de Yale y autor principal del artículo.

Esto crea una fuente de nuevos estados cuánticos sin necesidad de técnicas de control complicadas y podría simplificar ciertos algoritmos de computación cuántica. A largo plazo podría ser utilizado como un recurso más de los requeridos para construir un ordenador cuántico

El medio consta de un superconductor qubit acoplado a una cavidad resonante de microondas.
Robert J. Schoelkopf, profesor de Física aplicada en Yale, dirigió el equipo de investigación.
El documento, titulado “Observation of quantum state collapse and revival due to the single-photon Kerr effect“, contiene una lista completa de los co-autores.

El truco para futuros experimentos será encender y apagar a voluntad este efecto, por lo que sólo sucede si queremos que suceda, ya tenemos experiencias en el camino que demuestran que podemos hacerlo

Concluye Kirchmair.
Vía | Nature

El FBI de EE.UU. intenta conseguir el derecho a espiar Gmail y Dropbox en tiempo real

El FBI de EE.UU. intenta conseguir el derecho a espiar Gmail y Dropbox en tiempo real:
Durante años, espiar llamadas telefónicas ha sido pan de cada día para la Oficina Federal de Investigaciones de Estados Unidos (FBI), agencia que se encarga, entre otras cosas, de estar al tanto de actividad terrorista que comprometa sus intereses. Para estos fines es que la organización ahora busca obtener acceso a la mensajería en tiempo real transmitida a través de Internet, específicamente los servicios de Gmail, Google Voice y Dropbox.
Ocurre que hasta hoy, el FBI mantiene instalados equipos de vigilancia en las operadoras telefónicas, los que permiten interceptar llamadas al momento que éstas ocurren. Sin embargo, la historia en Internet es diferente y en el caso específico de Gmail, por ejemplo, los mensajes son transmitidos por la red utilizando cifrado SSL, por lo que aunque el FBI lo capte al vuelo, no puede descifrarlo.
Es por esto que durante una conferencia realizada en Washington, Andrew Weissmann, abogado en jefe de la agencia, manifestó el interés de resolver este “problema” y poder espiar el tiempo real las conversaciones vía los servicios antes mencionados, apuntando además a que durante todo este año 2013 el FBI hará grandes esfuerzos para conseguir el marco legal que le permita acceder a toda clase de comunicación que se haga vía Internet.
Y es que si bien la organización hoy puede apelar a un decreto legal para obtener correos electrónicos, tiene problemas al momento de conseguir información en tiempo real en la red, lo que según ellos, supone un canal de transmisión de datos frecuentemente utilizado por terroristas.
Link: FBI Pursuing Real-Time Gmail Spying Powers as “Top Priority” for 2013 (Slate)

Google Translate para Android estrena versión offline para ahorrarte aspavientos en tus viajes

Google Translate para Android estrena versión offline para ahorrarte aspavientos en tus viajes:
Filed under:

Google Translate para Android estrena versión offline para ahorrarte aspavientos en tus viajes

Hasta ahora, si no tenías más remedio que pasar por el trance de visitar un país cuyo idioma no dominas y no querías que te llegara una factura telefónica de varios kilos de peso por usar un traductor online en roaming, la única solución era pasar páginas y páginas del diccionario y gesticular como si no hubiera mañana para pasar el apuro. Por suerte esta situación está a punto de cambiar con el anuncio por parte de Google de una versión offline de su famosa aplicación Translate para Android. Según nos cuenta la compañía, la plataforma cuenta con 50 idiomas disponibles, que podrás descargar de manera individual en paquetes de unos 150 MB en función de tus necesidades. Ni que decir tiene que el apaño de estas características no es capaz de suplir el trabajo de un traductor profesional, ni es tan completo como el servicio online original, pero al menos sacará de algún que otro problemilla de comunicación a quienes utilicen un teléfono con Android 2.3 o superior.

[Vía The Android Official Blog]

Read | Permalink | Email this | Comments

OUYA comenzará su despliegue comercial el 4 de junio por 99 dólares – Actualizada: Comienzan los envíos de Kickstarter

OUYA comenzará su despliegue comercial el 4 de junio por 99 dólares – Actualizada: Comienzan los envíos de Kickstarter:
Filed under:

OUYA comenzará su despliegue comercial el 4 de junio por 99 dólares

Por una cosa u otra, no hay semana que no tengamos a la flamante OUYA en nuestra portada al menos un par de veces, en esta ocasión con la disponibilidad del modelo comercial en el punto de mira. Si no llegaste a tiempo a colaborar en su financiación en Kickstarter o simplemente te ha picado el gusanillo a raíz del éxito cosechado en esta plataforma, tranquilo porque tal y como te adelantábamos, no tendrás que esperar demasiado para echarle el guante.

Sus creadores han anunciado en esta GDC 2013 que la famosa consola androide llegará a los primeros escaparates el próximo 4 de junio, es decir, apenas dos meses después de que la recibieran quienes participaron en su campaña de financiación. Este margen servirá a la casa para llevar a cabo los ajustes necesarios a su software a partir del feedback proporcionado por quienes han podido probarla antes, con la idea de que su estreno en las tiendas tenga el menor número de sobresaltos posibles.
Continue reading OUYA comenzará su despliegue comercial el 4 de junio por 99 dólares – Actualizada: Comienzan los envíos de Kickstarter

Read | Permalink | Email this | Comments

Juez de EE.UU. determina que los algoritmos matemáticos no pueden ser patentados

Juez de EE.UU. determina que los algoritmos matemáticos no pueden ser patentados:
¿Pueden patentarse los algoritmos matemáticos? La empresa Uniloc aseguraba tener una patente para un algoritmo para procesar números de punto flotante en Linux. Tal función estaba siendo utilizada por la compañía Rackspace, por lo que Uniloc presentó una demanda en su contra esperando recibir un pago por supuestos daños.
Sin embargo, le salió todo al revés, porque en la corte el juez Leonard Davis declaró en cambio que la patente de Uniloc era inválida, basándose en una resolución anterior de la Corte Suprema que prohíbe patentar algoritmos matemáticos.
Rackspace fue apoyado por Red Hat en su defensa ante la corte, señalando que las demandas de patentes de parte de empresas que no las usan para nada ”son un problema serio y crónico para la industria de la tecnología. Tales demandas, que frecuentemente se basan en patentes que nunca debieron ser otorgadas, cuestan normalmente millones de dólares en la defensa. Estas demandas son una plaga para la innovación, crecimiento económico y creación de empleos. Las cortes pueden solucionar este problema al determinar temprano la validez de las patentes con el cuidado apropiado. En este caso, el juez Davis hizo exactamente eso, estableciendo un buen ejemplo para casos futuros”, señaló Rob Tiller, consejero general asistente para propiedad intelectual de Red Hat.
Los casos de “trolls” de patentes son usuales en el sector de la tecnología. Según Rackspace y Red Hat, esta es la primera vez que una demanda de este tipo fue desestimada rápidamente, ante el hecho de que lo que se alegaba no era patentable en primer lugar. Según dicen, podría marcar un precedente para la actividad de los trolls, si todas las cortes actúan de la manera en que lo hizo el juez Davis.
Link: Judge says mathematical algorithms can’t be patented, dismisses Uniloc claim against Rackspace (TechCrunch)

AMD desvela una plataforma de juegos en streaming con Radeon Sky Graphics

AMD desvela una plataforma de juegos en streaming con Radeon Sky Graphics:
Filed under:

AMD desvela una plataforma de juegos en streaming con Radeon Sky Graphics

AMD ha aprovechado el GDC para mostrar al mundo su Radeon Sky Graphics, la esencia de una nueva plataforma en la nube que permite ofrecer juegos en streaming a PC, Smart TV, tablets y dispositivos móviles, y que entra en competencia directa con NVIDIA GRID. Según hemos podido saber, la placa estaría fabricada empleando su arquitectura Graphics Core Next y disfrutando de la tecnología RapidFire para ofrecer “una muy eficiente y rápida” experiencia. No contamos con muchos más detalles por el momento, pero parece que todavía habrá que esperar a que los desarrolladores prueben el hardware para comenzar a ver los frutos entre los usuarios.

Según hemos podido saber a través de Joystiq, la gama Radeon Sky incluiría tres gráficas profesionales, contando el alto de gama (Sky 900) con 6 GB de memoria GDDR5 y un ancho de banda para la misma de 480 GB por segundo.

Read | Permalink | Email this | Comments

OpenELEC 3.0 es ya oficial y soporta "más hardware que nunca"

OpenELEC 3.0 es ya oficial y soporta “más hardware que nunca”:
Filed under: ,

OpenELEC 3.0 es ya oficial y soporta

OpenELEC 3.0 ha salido por fin de la beta y es por fin oficial, llegando con importantes cambios. Según anuncian sus desarrolladores, se han actualizado prácticamente todos los componentes desde la versión 2.0 que vimos el año pasado. Esta nueva versión está basada en XBMC 12.1 e incluye todas sus actualizaciones, además de las mejoras específicas para Raspberry Pi, dispositivos MC001, Apple TV y hardware con chip AMD.

Si estás actualmente en la versión 2.0 tendrás que actualizar de forma manual a esta nueva release. Haz clic en Leer y encontrarás el detalle de la actualización, así como todas las instrucciones para dar el salto correctamente.

Read | Permalink | Email this | Comments

Desarrollan una prótesis robótica que se mueve como una mano natural

Desarrollan una prótesis robótica que se mueve como una mano natural: Investigadores del Centro Científico E. Piaggio de la Universidad de Pisa y del Instituto Italiano de Tecnología de Génova han diseñado una mano robótica que podría revolucionar el campo de las prótesis: es sólida y capaz de coger casi todo tipo de objetos mediante un único motor. Además, tiene un coste menor que otros sistemas.

Desarrollan una prótesis robótica que se mueve como una mano natural
La pérdida de función en una extremidad o la amputación de la misma pueden ejercer un efecto desmesuradamente negativo en la calidad de vida. Asimismo, la asimilación de una disfunción o una discapacidad comporta un proceso igualmente traumático y a menudo la recuperación resulta larga y ardua, pues los cambios en el estilo de vida a los que obliga una situación así no se producen de la noche a la mañana.

Todas las tareas que hasta ahora se resolvían sin esfuerzo cobran de repente una envergadura distinta. Incluso la pérdida de un brazo no dominante, por ejemplo, implica una carga superior para el restante. Sin embargo, la capacidad para realiza…

Tendencias 21 (Madrid). ISSN 2174-6850

Las microalgas capturan dióxido de carbono y producen biocombustible

Las microalgas capturan dióxido de carbono y producen biocombustible: Ciertas microalgas, además de constituir una fuente alternativa de bioenergía ideal, también pueden capturar dióxido de carbono. Su potencial es muy superior al de los cultivos oleaginosos y además no ocupan terrenos que de otra manera se destinarían al cultivo de alimentos. Sin embargo, tienen algunos problemas: su consumo de agua es excesivo durante la fase de producción, se libera CO2 en forma de burbujas durante la fase líquida y la recolección es trabajosa, lenta e ineficiente.

Las microalgas capturan dióxido de carbono y producen biocombustible
Los efectos del calentamiento global pueden apreciarse en todo el planeta e irán a peor si no se frenan las emisiones de dióxido de carbono (CO2). El calentamiento global está provocado por la emisión de gases de efecto invernadero. El CO2 supone el 72 % del total de emisiones de este tipo de gases, mientras que la proporción del metano es del 18 % y la de óxido nitroso el 9 %.

De estos porcentajes se extrae que las emisiones del primero son la causa dominante del calentamiento global. Este ga…

Tendencias 21 (Madrid). ISSN 2174-6850

[Vídeo] La conductividad térmica del grafeno

[Vídeo] La conductividad térmica del grafeno:
grafenoEn pocas palabras, el grafeno, un material descubierto en 2004, son láminas de carbono de solo un átomo de espesor cuyas propiedades no dejan de sorprendernos.
Entre ellas, es un excelente conductor del calor, como podéis ver en el este vídeo donde es capaz de cortar un cubito de hielo casi como si fuera mantequilla.

Más información | Ciencianet

La migración planetaria como posible causante de la gran tormenta de meteoros

La migración planetaria como posible causante de la gran tormenta de meteoros:
nasa
Según un nuevo estudio, la migración de los planetas gigantes gaseosos como Júpiter fue la causante de la mayor tormenta de meteoros en la historia de nuestro Sistema Solar.
La investigación, publicada en la revista Nature Geoscience, esboza de forma clara las causas del Bombardeo intenso tardío (conocido también como cataclismo lunar o LHB, siglas en inglés de Late Heavy Bombardment), una tempestad cósmica de hace unos 3,9 mil millones años, que dio forma al Sistema Solar que hoy conocemos.
Durante mucho tiempo, los científicos han trabajado con la hipótesis de que el Bombardeo fue causado por la migración planetaria, así Júpiter y Saturno se acercaron más hacia el Sol, mientras que Neptuno y Urano se alejaron de donde se formaron.
Los efectos gravitatorios causados ​​por estas migraciones arrojaron un gran número de meteoros hacia el Sistema Solar interior, donde chocaron con todo lo que pillaron por medio, incluidas la Tierra y la Luna. Aunque también se le atribuye el envío de asteroides y cometas que actualmente mantienen su órbitas.
Este nuevo informe de investigadores del Southwest Research Institute en Boulder, Colorado, entre ellos el autor principal, el Dr. Simone Marchi, apoya la hipótesis basada en un estudio de las rocas lunares del Apolo 16 y dos tipos principales de meteoroides.
Estos incluyen Condritas H, que componen casi la mitad de los meteoros y meteoritos que se cree que originó el principal objeto del cinturón de asteroides, Vesta.
Marchi y sus colegas utilizaron lecturas de isótopos de argón para determinar cuando ocurrió el impacto que creó las muestras.
Sus modelos y simulaciones por ordenador indican un período de intenso bombardeo de meteoritos a lo largo del sistema solar entre 3,4 y 4,1 millones de años, coincidiendo con el Bombardeo intenso tardío.
Las lecturas de argón también indican que las muestras de meteoritos sólo podrían haber resultado de impactos de alta energía, de unos 10 kilómetros por segundo.
El apoyo a la teoría del Bombardeo intenso tardío había disminuido después de las revelaciones de que algunos circones lunares y brechas causadas por los impactos eran de más de cuatro millones de años.
Estos hallazgos plantean la posibilidad de una idea alternativa en el que las fechas representan impactos de un bombardeo suavemente decreciente de material sobrante de la construcción planetaria.
Pero el científico Dr. Simon O’Toole del Observatorio Astronómico australiano dice que el nuevo documento aborda las dudas sobre la migración planetaria en nuestro Sistema Solar.

Los nuevos cálculos proporcionan un resultado importante en los modelos existentes de la migración planetaria y de la teoría del Bombardeo intenso tardío

Dice O’Toole.

Los modelos anteriores sólo predecían los impactos de baja velocidad, valores menores de cinco kilómetros por segundo que ocurren en el cinturón de asteroides. Mayores velocidades habrían colocado estos asteroides en órbitas que hubieran cruzado los planetas, estrellándose en ellos, llegando a vaciar rápidamente el cinturón de asteroides

Sin embargo, la influencia gravitatoria de los planetas migratorios cambiaron las órbitas de los asteroides enviándolos muy por encima y por debajo del plano orbital del Sistema Solar, reduciendo los riesgos de una colisión planetaria.

El estudio nos da una buena base para una mejor comprensión del Sistema Solar y de cómo llegó a ser lo que es ahora

Concluye.
Vía | NASA

El ordenador más pequeño del mundo mide poco más que un milímetro cúbico

El ordenador más pequeño del mundo mide poco más que un milímetro cúbico:
ordenador pequeñoSi antaño quedábamos fascinados por el tamaño megalítico de las computadoras, hogaño lo que nos parece más fascinante son es la capacidad de miniaturización de los ordenadores, a merced de la llamada ley de Bell: indica el nacimiento de una clase de ordenador más barato y más pequeño cada diez años. Con todo, aún necesitamos ocupar más de 1.000 metros cuadrados para alojar los supercomputadores más rápidos del mundo, como el Roadrunner, del que podéis leer aquí: Visita el teclado gigante de computadora construido con bloques de cemento.
Pero volvamos a lo más pequeño.
El ordenador más pequeño que se usa actualmente se implanta en los ojos como medidor de presión ocular en pacientes que sufren de glaucoma. Y es que este ordenador desarrollado por investigadores de la Universidad de Michigan apenas tiene un tamaño de un milímetro cúbico.
El ordenador puede almacenar aproximadamente una semana de datos, los cuales son transmitidos a un dispositivo externo (cercano al ojo) para uso del paciente. Sin duda una apariencia externa que dista mucho de la paródica mostrada en este vídeo:

Y sus aplicaciones no se quedan plegadas exclusivamente al ámbito de la medicina: en un futuro también podrían emplearse, por ejemplo, como medidores de la calidad del aire.
Otro de los ordenadores más pequeños del mundo, y que no se implanta en nuestro cuerpo y puede usarse como un Pc convencional, es Space Cube, y mide solamente 2×2×2.2 pulgadas. Integra un procesador de 300 Mhz, equipado con 64 MB de SDRAM, conexión usb, conexión de Ethernet, entrada para memorias flash, salida VGA, un puerto en serie y una entrada para micro.
Vía | ABC

Dándole una segunda oportunidad a Chrome OS

Dándole una segunda oportunidad a Chrome OS:
Aquí estoy, asombrado porque quizá uno de los productos tecnológicos de una de las mayores empresas de software y tecnología del mundo, que en todo momento pensaba que no era una buena idea, es quizá, una muy buena idea. Me duele reconocerlo, pero hablo de Chrome OS.
El año pasado mientras estaba en San Francisco en el Google I/O, “el buscador” regaló algunos dispositivos a todos los asistentes como hace todos los años, entre ellos el fallido Nexus Q (que aun guardo y que alguna vez desempolvaré para abrirlo y ver que tiene dentro) y un ChromeBox.
La primera versión de ChromeBox fabricada por Samsung es una pequeña caja, más o menos del tamaño de un Mac Mini, que contiene un pequeño ordenador con 4GB de memoria RAM, una memoria interna SSD y un procesador Core i5 (la versión desarrollador ya tenía este procesador). Un montón de puertos USB, salida de vídeo DVI y DisplayPort, conexiones de audio y Ethernet (aunque también tiene Bluetooth y Wi-Fi 802.11n) para conectarse a Internet. Tan pronto llegué a Madrid me puse a probarlo. Definitivamente no me gustó Chrome OS, y aunque este ChromeBox ha estado encima de mi escritorio desde el año pasado, nunca le presté demasiada atención. Algún experimento como instalar Ubuntu, entrar en el modo developer… poco más.
Pero desde hace un par de semanas le conecté un monitor, un teclado y ratón bluetooth. Para mi sorpresa, me estoy viendo casi todos los días trabajando durante unas horas con este dispositivo.

¿Sin software? No hay problema, la web al rescate

Mis quejas sobre Chrome OS eran varias que como usuario avanzado, o por lo menos me gusta pensar que soy un usuario avanzado, me imposibilitan o directamente me hacían el trabajo más difícil de lo que lo haría otro sistema operativo como Windows u OS X, que es lo que uso desde mi MacBook Pro. Hasta ese momento pensaba que usar Chrome OS era algo así como un “downgrade” para trabajar por sus limitaciones, hasta que te ves trabajando con él durante algunas horas y empiezas a ver como no estás echando de menos tu portátil.
Déjame hablarte primero de las limitaciones de Chrome OS, empezando por la más importante de todas: no puedes instalar aplicaciones. Tampoco puedes hacer grandes tareas con archivos, incluso no puedes almacenar muchos datos dentro de su memoria interna porque no está diseñado para ello.
En realidad Chrome OS está pensado para trabajar “en la nube”, apoyándote en servicios web como los de la propia Google, ya sea Google Drive, Gmail o de otros como Zoho Docs, la versión web de Office, Dropbox, Skydrive y un largo número de servicios online que intentan reemplazar aplicaciones de tu tradicional y aburrido ordenador.
Chrome OS es Chrome en ordenador, es todo lo que vas a obtener: varias ventanas de un navegador y nada más. Por lo que si te decides por uno de estos ordenadores portátiles o por ChromeBox como ordenador de escritorio, estás avisado.
Al ser la falta de aplicaciones la principal desventaja de Chrome OS, hay que buscar reemplazos para esas aplicaciones que usas durante todo el día. Sorprendentemente existen, en su mayoría por el mismo servicio.
Escucho música vía Spotify o Rdio en sus versiones web. Gestiono mi correo electrónico usando el nuevo Outlook y Gmail. Escribo documentos y mis artículo apoyándome en Evernote y en Google Drive. Puedo tener aplicaciones “potentes” de redes sociales como TweetDeck para Twitter. Las comunicaciones no son un verdadero problema desde que existe Google+ Hangouts. Incluso, si te encuentras en el canal de desarrollo de Chrome OS con versiones de prueba no estables diarias, puedes instalar nuevas aplicaciones como el nuevo visor de fotos de Google+.
No todo es perfecto, aun encuentro difícil reemplazar mi Photoshop para hacer modificaciones a algunas imágenes (y diseñar esas imágenes de portada que encuentras en mis artículos, todo sea dicho).
No nos engañemos, Chrome OS es un sistema operativo para el amante de Google. Basta con que te sea indispensable una sola aplicación de escritorio para que esto no te valga para nada. Pero, no me parece mucho más diferente las limitaciones de Chrome OS de las que pueda tener, por ejemplo un iPad con su ecosistema cerrado.
Entonces, ¿Chrome OS se puede considerar un downgrade? Sorprendenemente, y mientras se sigan creando proyectos con versiones web, no. Se puede disfrutar más de un sistema operativo basado en la web y que se actualiza con frecuencia, en segundo plano y sin que el usuario tenga que interferir. Pero todo se basa en la web, por lo tanto se necesitan más desarrollos para la misma, por ejemplo, una versión web de Skype.

Imposible encontrar Chromebooks

¿De quién es la culpa que los Chromebook no se vendan bien? Es prácticamente imposible encontrar terminales fuera de EE.UU. o Reino Unido. En Latinoamérica su presencia es nula, aunque los precios de estos portátiles sean bajos, la falta de conexión puede ser un impedimento.
Ahora mismo desde España, si quieres comprar un dispositivo con Chrome OS tienes que dirigirte a Amazon de Reino Unido, o bien al de EE.UU. No sabemos si la falta de dispositivos es porque no han tenido éxito, aunque todo indique que efectivamente, su penetración en Europa es muy baja.
Pero luego vemos a Google lanzando dispositivos como Pixel y no podemos estar más desorientados. ¿Un portátil premium con un sistema operativo tan básico. Y ese precio, no ayuda en nada.
La estrategia de Chrome OS, ahora mismo, no tiene sentido alguno. Hace falta expansión en otros países y sobre todo hacer que dispositivos como este Pixel, sea más barato y asequible para personas que pueden tener interés en un portátil que se base en la web por su sencillez y nula falta de aprendizaje.
Actualización: Acerca del editor de imágenes, Claudio Cáceres vía Twitter ha dado algunas alternativas: Pixlr Editor y ImageBot Photo Editor.
Link: Mi semana con el Chromebook [FW Labs]

El mejor mapa del universo primitivo hasta el momento

El mejor mapa del universo primitivo hasta el momento:
El mapa del Universo primitivo, reconstruido a partir de los datos del fondo cósmico de microondas tomados por la misión Planck, nos habla de un universo casi perfecto, pero no del todo.

Foto

El equipo de la misión Planck ha liberado por fin el mapa que, hasta el momento, constituye la representación más precisa del universo primitivo.

Como ya todos sabemos, el Universo se hizo transparente por primera vez unos 370.000 años tras el Big Bang y la luz pudo por fin viajar grandes distancias sin que fuera absorbida por el plasma primordial.

Esa luz, corrida hacia el rojo por culpa de la expansión cosmológica, constituye lo que llamamos fondo cósmico de microondas (FCM). Este fondo de radiación fue descubierto en los años sesenta, pero hasta hace poco no había mapas precisos de él. El primer mapa que se pudo levantar se consiguió gracias a la misión COBE. Después vino el mapa levantado por WMAP. Estos nuevos resultados que se acaban de hacer públicos constituyen el mapa más preciso hasta el momento que tenemos del universo primitivo.

Cuando contemplamos el fondo cósmico del microondas vemos cómo era el Universo 370.000 años después del Big Bang, pues el origen de esta radiación está justo en el borde del universo visible. No podemos ver más allá con radiación electromagnética, pues antes los fotones no se habían desacoplado de la materia. Es curioso que podamos ver el borde del universo visible y el universo cercano, pero que entre medias todavía no tengamos aún tecnología para ver gran cosa, a excepción de las imágenes deep del Hubble.

Este tipo de mapas son muy importantes para los cosmólogos, pues permiten poner a prueba las distintas teorías cosmológicas. Como se puede ver en la imagen, el universo primitivo tenía cierta textura. Si hubiese sido completamente homogéneo no hubiera habido irregularidades sobre las que la gravedad pudiera trabajar y no habría ni galaxias ni estrellas ni nada, sólo átomos de hidrógeno y helio más o menos equidistantes.

Por otro lado, el Universo parece ser bastante homogéneo e isótropo, por lo que tuvo que haber algún mecanismo que lo homogeneizara. Los modelos que inflación explican eso. Según estos modelos, en las primeras fracciones infinitesimales de tiempo tras el Big Bang, el Universo experimento un aumento en tamaño en muchos órdenes de magnitud. Como nuestro universo visible procede de una parte muy pequeña e inflada de ese universo primordial, su homogeneidad está garantizada.

A la vez, la inflación aumentó las fluctuaciones cuánticas hasta un tamaño tal que introducen la inhomogeneidad justa como para tener galaxias y otras estructuras. Esto se tradujo en oscilaciones acústicas que dieron lugar zonas más fría o más cálidas, zonas que son representadas por un código de colores (en falso color) en la foto.

La misión Planck de la ESA, lanzada en 2009, ha podido obtener un mapa mucho más preciso que el que obtuvo la misión de WMAP de la NASA, lo que ha permitido recalcular algunos parámetros con mayor precisión. Ambas misiones se basan en colocar un pequeño radiotelescopio muy preciso fuera de la Tierra enfriado hasta cerca del cero absoluto de temperatura. El mapa de Planck que se ha publicado ahora ha sido reconstruido a partir de los datos de los primeros 15 meses y medio de toma de datos.

Entre los nuevos parámetros que se han podido recalcular esta la constante de Hubble que ahora vale 67,3 kilómetros por segundos por Megaparsec. Lo que significa que el Universo es 80 millones de años más viejo que lo calculado por WMAP. Es decir, tiene 13.820 millones de años.

Además la materia oscura constituye un 26,8% y la materia ordinaria un 4,9% del total de masa-energía del Universo, mientras que la energía oscura constituye un 68,3% del Universo. Estos números son mayores para los dos primeros y menor para el tercer caso comparados con los cálculos a partir de los datos de WMAP.

Foto
Anisotropía y zona fría. Fuente: ESA.

Los datos sugieren además que los modelos más simples de inflación son los que funcionan, porque las fluctuaciones están distribuidas de una manera bastante aleatoria.

Sin embargo, los nuevos resultados confirman un par de cosas raras que se habían encontrado anteriormente. Hay una asimetría entre hemisferios opuestos, lo que define una dirección privilegiada en el Cosmos. Parece que finalmente el Universo no es perfectamente simétrico. Además, hay una región más fría que el resto que cubre cierto área. Esto elimina algunos modelos de inflación, pero no la idea de inflación en sí misma.

El equipo de Plank planea liberar más datos nuevos en 2014.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4067
Fuentes y referencias:

Nota de prensa.

Descarga de imagen a gran resolución.

Crean nanocables magnéticos en 3D con gran capacidad para procesar información

Crean nanocables magnéticos en 3D con gran capacidad para procesar información: Un equipo del CSIC ha conseguido fabricar y estudiar de forma directa nanocables magnéticos tridimensionales con gran capacidad de almacenar y procesar información Para ello han obtenido nanoestructuras de cobalto en forma de espiral, cuyo consumo de energía además sería muy bajo.

Crean nanocables magnéticos en 3D con gran capacidad para procesar información
Un equipo liderado por investigadores del Consejo Superior de Investigaciones Científicas (CSIC) ha conseguido fabricar nanocables magnéticos tridimensionales y ha estudiado por primera vez sus propiedades de forma directa. El trabajo, que aparece publicado en la revista Nature Scientific Reports, podría revolucionar el modo en que se almacena y procesa la información.

Los investigadores han empleado una técnica de nanofabricación que consiste en la descomposición, inducida por el haz de electrones de un microscopio electrónico de barrido, de las moléculas precursoras de un metal sobre una superficie. A través de este método, denominado FEBID (Focused Electron Beam Induced Deposition), lo…

Tendencias 21 (Madrid). ISSN 2174-6850

La estrella más rápida no logra escapar de un agujero negro

La estrella más rápida no logra escapar de un agujero negro: El telescopio espacial XMM-Newton de la ESA ha ayudado a identificar un sistema formado por una estrella –una enana roja- y por un agujero negro que se orbitan mutuamente a gran velocidad. La estrella completa esta órbita cada 2.4 horas, casi una hora menos que el anterior récord registrado. Entretanto, el agujero negro se sigue alimentando de la materia arrancada de su diminuta compañera.

La estrella más rápida no logra escapar de un agujero negro
El telescopio espacial XMM-Newton de la Agencia Espacial Europea (ESA) ha ayudado a identificar un sistema formado por una estrella y por un agujero negro que se orbitan mutuamente a gran velocidad. La estrella completa una órbita cada 2.4 horas, casi una hora menos que el anterior récord registrado.

El agujero negro de este sistema, conocido como MAXI J1659-152, es tres veces más masivo que el Sol, mientras que la enana roja que le acompaña tiene una masa equivalente al 20% de la de nuestra estrella. Estos dos cuerpos s…

Tendencias 21 (Madrid). ISSN 2174-6850

El reloj más preciso del mundo

El reloj más preciso del mundo:
clockEl reloj que lleva más tiempo funcionando ininterrumpidamente (sin pilas y sin darle cuerda) es el Reloj de Beverley, que se encuentra en el vestíbulo del Departamento de Física de la Universidad de Otago, Dunedin, Nueva Zelanda. Lleva en marcha nada menos que desde 1864. Podéis leer más sobre él en: ¿Dónde está el reloj que lleva más tiempo funcionando? ¿Y la bombilla que lleva más tiempo encendida?
Pero dicho reloj no es el más preciso del mundo, precisamente. Éste se ubica en Reino Unido, y se llama NPL-CsF2, como si fuera un personaje robótico de Star Wars. Lo cierto es que no tiene aspecto de reloj, en el sentido tradicional del término: más bien es un armatoste de cables, tubos y mecanismos. No es muy útil para transportar en la muñeca, ni tampoco muy bonito para poner en el recibidor de casa: pero lo bueno es que sólo atrasa un segundo cada 138 millones de años. Es decir, que desde que aparecieron los dinosaurios en la Tierra hasta ahora, el reloj sólo se habría atrasado un segundo.
clock2Este reloj atómico se encuentra en el Laboratorio Nacional de Física (NPL, por sus siglas en inglés), y se basa en una fuente de emisión de cesio, en el que el tictacqueo está marcado por la medida de energía necesaria para cambiar una propiedad de los átomos de cesio llamada “espín”. Por definición, cuando ocurren 9.192.631.770 de estas oscilaciones, pasa un segundo.
Vía | BBC Mundo

La EPFL mezcla grafeno y molibdenita para conseguir componentes más rapidos y eficientes

La EPFL mezcla grafeno y molibdenita para conseguir componentes más rapidos y eficientes:
Filed under:

La molibdenita se presentaba como el enemigo público número uno para el reinado del grafeno, sin embargo, este mineral compuesto por una mezcla de molibdeno y azufre podría finalmente convertirse en el aliado perfecto del que hasta ahora parecía ser el material del futuro. Tal y como han conseguido científicos de la EPFL (Escuela Politécnica Federal de Lausana), la combinación de ambos elementos ha servido para que un chip de memoria ofrezca rendimiento excelentes, ya que el grafeno se encargaría de acelerar las memorias y los electrodos gracias a su alta conductividad, mientras que la molibdenita cambiaría rápidamente los estados eléctricos (lo que conocemos como banda prohibida, algo de lo que carece el grafeno). Teóricamente, este complejo híbrido es más rápido y más eficiente que las memorias actuales basadas en silicio, pero esa sólo sería una de las ventajas, ya que también podría integrarse en diseños flexibles gracias a su naturaleza extrafina. Lamentablemente de momento no hay planes para su comercialización, así que tendremos que seguir aguantando algunos años más con la tecnología actual.

Read | Permalink | Email this | Comments

Científicos crean un chip inalámbrico capaz de enviar resultados sanguíneos a tu teléfono móvil

Científicos crean un chip inalámbrico capaz de enviar resultados sanguíneos a tu teléfono móvil:
Filed under:

Un grupo de científicos de Suiza ha diseñado un chip intercutáneo capaz de analizar la sangre y enviar los resultados a través de Bluetooth. Sí, se trata de una idea bastante futurista que ya ha sido probada en animales, y que ha sido posible gracias a la creación de un pequeño chip de poco más de un centímetro que permitirá llevar el control del colesterol y los niveles de azúcar en sangre, e incluso servirá para comprobar el impacto de tratamientos como la quimioterapia gracias a otros cinco sensores incorporados.

Se espera que este chip se pueda probar pronto en pacientes que requieran numerosos controles de sangre diarios, aunque todavía queda muchísimo para que podamos ver lista una solución comercial. Tal y como explican en la EPFL, el sensor puede incluso predecir ataques cardíacos con horas de antelación, ya que detectaría cambios en el torrente sanguíneo al instante. Se trata sin duda de un avance realmente esperanzador para la medicina, así que esperamos que los resultados sean satisfactorios y podamos ver a este chip en los hospitales cuanto antes.

[Vía BBC]

Read | Permalink | Email this | Comments

NVIDIA GRID VCA, un potente servidor de gráficos con hasta 16 GPUs

NVIDIA GRID VCA, un potente servidor de gráficos con hasta 16 GPUs:
Filed under:

NVIDIA GRID VCA, un potente servidor de gráficos con hasta 16 GPUs

Tras el atracón de anuncios de ayer con los recién presentados SoC con tecnología CUDA para móviles y la nueva generación de gráficas Volta de este GTC 2013, NVIDIA tenía aún reservada una noticia para hoy. Se trata de la llegada de su nuevo GRID VCA, un potente servidor de gráficos pensado para diseñadores, animadores y cualquier otro profesional de las artes visuales. En su modelo más básico, este “pequeñín” compatible con entornos Windows, Linux y Mac, cuenta con nada menos que un 8 tarjetas gráficas, procesador de 16 hilos, 192 GB de RAM y la promesa de ser capaz de responder a las exigencias de hasta 8 usuarios en una misma red. Su precio parte de unos nada despreciables 24.900 dólares, a los que habrá que sumar otros 2.400 anuales para sufragar su licencia de software (19.240 y 1.954 euros al cambio respectivamente). Como puedes imaginar no se trata de un equipo que se pueda permitir un usuario de a pie, pero si ni aun así ves cubiertas las necesidades de tu estudio, siempre puedes empezar a plantearte subir un par de escalones con el modelo con 16 GPUs; claro que en este caso, la compañía ha preferido colgarle un cartelito de “ponte en contacto con nosotros para conocer su precio”, evitando así algún que otro infarto de los que solo estén curioseando.

[Vía Silicon Week]

Read | Permalink | Email this | Comments

ALMA: El mayor radiotelescopio del mundo

ALMA: El mayor radiotelescopio del mundo:
Aunque ALMA comenzó a funcionar parcialmente en octubre de 2011, el Atacama Large Millimeter/sub-millimeter Array celebraró hoy 13 de marzo su inauguración oficial, con lo que el funcionamiento del mayor radiotelescopio del mundo se formaliza.
Instalado sobre el Llano de Chajnantor en la Región de Antofagasta en Chile, ALMA contará con 66 antenas cuando esté terminado, que observarán ondas milimétricas y sub-milimétricas.
“El año pasado usamos solo 16 antenas, ahora estamos usando 32. El próximo año usaremos 40 ó 50 quizás, y después ya vamos a estar usando 66″, explica Diego Mardones, radioastrónomo de la Universidad de Chile e investigador de Centro de Astrofísica CATA.
Tanto la velocidad con la que opera como la calidad de la imagen que produce el telescopio mejoran con la cantidad de antenas que pueden captar las ondas (en lugar de imágenes directamente, como funcionan los telescopios ópticos). Los datos recogidos por las antenas son procesados por un computador – el “Correlacionador” -, que combina la información de todas las antenas para generar una imagen.
Aunque Chile ha alojado muchos grandes telescopios desde hace décadas, ALMA es especial. “Por primera vez con ALMA se construyó un telescopio que es absolutamente único en el mundo”, asegura Mardones. El telescopio “es notoriamente más poderoso, más sensible. Lo que uno observa en una hora con ALMA, por decir algo, toma 100 horas con otros telescopios similares. Entonces eso te permite observar objetos mucho más lejanos y que son más difíciles de observar. Además ALMA tiene mejor resolución, y produce imágenes de mejor calidad”, asegura.


(c) Felipe Indo

La primera antena de ALMA se instaló en 2008. Todas han debido escalar los 5.000 metros de altura donde se ubica la instalación desde donde se hacen las observaciones. “ALMA tiene la gracia de ser un observatorio muy versátil, que puede observar todo tipo de cosas. Pero a mi modo de ver, lo más importante durante los próximos dos o tres años va a ser estudiar la formación de estrellas y planetas”, explica Mardones.
Chile tiene derecho a usar ALMA un 10% del tiempo disponible, mientras el resto se reparte entre Europa, Estados Unidos, Canadá y Japón, quienes colaboraron para construir el proyecto.
Los dejamos con un Time Lapse en HD de las instalaciones en el Llano de Chajnantor (gracias Nicolás Bustos) y una galería de imágenes (gracias Felipe Indo).
Click aqui para ver el video.
(c) ESO (c) Felipe Indo (c) Felipe Indo (c) Felipe Indo (c) Felipe Indo (c) Felipe Indo (c) Felipe Indo
Link: ALMA Observatory Inauguration (ALMA)

Bitcoin: En qué consiste y cómo revoluciona al dinero

Bitcoin: En qué consiste y cómo revoluciona al dinero:
Últimamente les hemos contado bastante sobre Bitcoin, una moneda electrónica que ha crecido mucho en popularidad en los últimos años con la que puedes pagar en servicios como WordPressMega, o diversos casinos online; además de donar dinero para Wikileaks, o regalárselo a chicas a través de Reddit (a cambio de una pequeña muestra de agradecimiento).
En este artículo, el primero de una serie sobre el tema, intentaremos explicarles las bases de la moneda digital para comprender su funcionamiento y cómo los usuarios de ésta confían en un sistema que no tiene un órgano central que las administre.

¿Bit qué?

Bitcoin es una moneda digital P2P desregulada y descentralizada, la que fue ideada por una persona (o un grupo) anónima bajo el seudónimo de Satoshi Nakamoto en 2009, quien explicó en un artículo las bases de su moneda electrónica con la siguiente descripción:
Una versión 100% P2P de dinero electrónico que le permitiría a los pagos online ser enviados directamente de un ente a otro sin pasar a través de una institución financiera (…) eso si, este beneficio se pierde si se necesita de un tercero que verifique la transacción confirmando que el dinero electrónico no se usó previamente (más conocido como doble-gasto, lo que evita la falsificación)”.
La solución de Nakamoto consiste en que el registro de absolutamente todas las transacciones realizadas con una bitcoin se almacenan en una cadena de bloques pública, por lo que cuando se realiza una transacción, el recibidor chequea las transacciones pasadas hasta eventualmente llegar a un punto donde todos los nodos –los computadores conectados a la red P2P que entre todos administran bitcoin– están de acuerdo con que en ningún momento se gastó dos veces una moneda electrónica.
O sea, se podría considerar el sistema de bitcoin como un grupo de amigos alrededor de una mesa donde todos tienen un registro contable que detalla el número de bitcoins que poseen entre todos y cada uno de ellos individualmente.
Ahora imagínate que un miembro de la mesa le entrega dinero a otro: Todos ven en detalle la transacción (porque es pública), y todo el grupo la añade a su registro, quienes verifican que se realizó correctamente. ¿Suena bien? Pues ahora imagina que el software de bitcoin es el registro contable, y que la mesa es gigante, con miles de personas, y que ocupan Internet para compartir toda la información en tiempo real.
“Definimos una moneda electrónica como una cadena de firmas digitales. Para transferir una moneda, un pagador firma digitalmente una cadena con información de las transacciones anteriores, a la que le agrega al final una ‘llave pública’ que es la dirección del recibidor. Un recibidor puede verificar las firmas para confirmar todas las transacciones realizadas anteriormente“, afirmó Nakamoto.
De esta forma, no se requiere de un ente central que administre el bitcoin, pues en todo momento los usuarios tienen claro desde dónde proviene una moneda ya que todos los computadores que ejecutan el software de bitcoin –y que están interconectados entre sí mediante Internet– verifican la validez de esta transacción.
Esta validez se verifica con lo que Nakamoto describe como un servidor de tiempo distribuido (timestamp server), el que identifica y ordena secuencialmente todas las transacciones –agrupadas en paquetes de información apodados ‘bloques’– para que no puedan ser modificadas, y mediante pruebas-de-trabajo, se demuestra que un bloque proviene de otro grupo de transacciones anteriores.
Esto implica que las transacciones no son instantáneas, pues cuando se realizan, la base de datos distribuida entre todos los computadores que corren el software de bitcoin se pone a trabajar para verificar la validez de la transacción. Cada vez que se verifica la validez de un bloque respecto al anterior, se dice que se ‘confirmó’ la transacción, lo que significa que si hay seis confirmaciones, es que se validó el bloque con la transacción actual respecto a seis bloques hacia atrás.

La minería de bitcoin

La secuencia de bloques –que es mantenida colectivamente– se llama ‘cadena de bloques’, y como decíamos, contiene la información de todas las transacciones conocidas.
Para verificar la validez de una transacción no confirmada, un ‘nodo generador’ (un computador dedicado a minar bitcoin) la toma y la junta a todas las otras transacciones no confirmadas –en un determinado momento– en un archivo llamado ‘bloque candidato’, el que contiene las referencias a estas transacciones y al último bloque conocido por el nodo generador.
Acá ocurre lo interesante: Todos los nodos generadores comienzan a competir entre sí tratando de validar el bloque candidato mediante complejas operaciones matemáticas que requieren un gran esfuerzo computacional llamadas función hash, las que consisten en operaciones matemáticas muy fáciles de reproducir, pero muy difíciles, sino imposible, de revertir o predecir.
Si un nodo logra validar el bloque, transmite la información a toda la red, quienes verifican la validez del nuevo bloque y lo agregan a la cadena de bloques. De esta manera, el nodo recibe como pago por tan compleja operación 25 bitcoins (originalmente eran 50, pero hace poco se ejecutó una medida de control que redujo la recompensa).
Esto significa que todos los computadores que están trabajando para realizar estas pruebas-de-trabajo, además de recibir el pago de bitcoins por su labor, están permanentemente ayudando a hacer más segura la moneda digital, lo que también implica que para realizar una estafa, es necesario controlar la mayoría del poder computacional que protege a la red, una tarea imposible pues entre todos los computadores que minan bitcoins hay lejos más poder de procesamiento que el varios de los supercomputadores más rápidos del mundo.

Interesante… ¿Cómo me hago una cuenta para tener bitcoins?

Lo primero es descargar el cliente de bitcoin, ya sea para Windows, Linux, Ubuntu o OS X, y luego instalarlo en el computador. Al ejecutar el programa se abrirá la siguiente ventana:

El cliente Bitcoin genera automáticamente una billetera con una dirección pública (la que es tu ‘dirección’ para recibir bitcoins de terceros) a la que se le asocia una llave privada, la que se guarda en un archivo wallet.dat en una carpeta del computador.
Si quieres recibir una moneda, al darle clic a la pestaña te mostrará tu dirección pública, la que puedes copiar y enviársela a cualquiera que te quiera enviar monedas. La dirección puedes darla a conocer a quienes quieras, postearla en Twitter, da igual, pues es inviolable y de todas formas todo el sistema sabe cuál es. Lo importante acá es tu llave privada.
La llave privada es, en el fondo, donde se almacenan tus bitcoins. Si la pierdes porque se arruina inesperadamente tu disco duro, perdiste tu dinero, por lo que siempre es recomendable utilizar cualquier forma de respaldo para tener una copia del archivo wallet.dat. Para eso, dale clic a ‘Archiv0′ y luego a ‘Respaldar billetera’.
Si quieres recibir una pequeña (muy pequeña) muestra de bitcoins gratis para así comprobar cómo funciona el sistema, puedes recurrir a Bitcoin FaucetCoinAd, Bit Visitor o Daily Bitcoins. Si la moneda te convence y te interesa comprar algunas unidades, puedes recurrir a sitios como Nanaimo Gold

(…) No entendí…

En resumen, y sin ocupar palabras técnicas, el bitcoin es una moneda electrónica donde se podría decir que su software –específicamente tu llave privada– es como tu billetera (si pierdes el archivo, pierdes tu dinero), donde se le entrega dinero a quienes más se esfuercen en verificar que ningún usuario de la moneda la falsifique a la hora de realizar una transacción.
Si bien esto puede parecer que entonces nada impide que todos minen monedas para siempre hasta ser millonarios, el tope máximo de bitcoins será 21 millones. Luego de esto el sistema de creación de nuevas monedas se termina, y debemos transar con las ya existentes. Sin embargo, como es una moneda digital, nada impide dividirla hasta el decimal que estimemos conveniente con un tope máximo de 8 cifras decimales (o sea, el mínimo es 0.00000001 bitcoins).
Esto también implica algo bastante interesante de este verdadero experimento económico: Al revés de las monedas normales, las que pierden valor (inflación) porque cada vez los bancos centrales imprimen más y más dinero para poner en circulación, el tope máximo de bitcoins implica que con el tiempo dejarán de circular más monedas nuevas por lo que ésta aumentará de valor.

¿Que implica esto para la libertad en Internet?

Como no hay un ente que controle la moneda, tampoco es posible recibir presiones de países o instituciones para impedir que una persona pueda, si así lo desea, crearse una dirección nueva de bitcoins sólo para recibir un pago específico en una ocasión particular.
¿Recuerdan cuando las tarjetas de crédito dejaron de recibir pagos para Wikileaks por las presiones del gobierno norteamericano? Con bitcoin esto sería imposible, no habría nadie en particular a quien reclamarle. Todos los usuarios serían partícipes del sistema que soporta la moneda.
Sin embargo, todas sus implicancias económicas y políticas en caso de que se adopte de forma masiva, lo veremos en una próxima entrega.
Click aqui para ver el video.
Links:
Bitcoin.org (Página oficial de la moneda electrónica)
El Bitcoin (Uno de los sitios más completos de información sobre bitcoin en español)
BlockChain (Información y estadísticas en tiempo real acerca de los últimos bloques minados)
Wiki de bitcoin

Motorola RAZR D1 y D3 salen a la venta en Brasil con Jelly Bean

Motorola RAZR D1 y D3 salen a la venta en Brasil con Jelly Bean:
Filed under:

Motorola RAZR D1 y D3 salen a la venta en Brasil con Jelly Bean

Motorola es una caja de sorpresas y la última nos llega desde Brasil: el fabricante estadounidense acaba de anunciar que pone a la venta en aquel país el RAZR D1 y RAZR D3, dos terminales Android que sin duda van a dar mucho que hablar. Estos smartphones cuentan con pantalla de 3,5 y 4 pulgadas respectivamente, y en lo que toca al resto de las especificaciones, el D3 sale mejor parado contando un procesador de doble núcleo a 1,2 GHz, 1 GB de RAM y una batería de 2.000 mAh.

El D1, por su parte, equipa un chip a 1 GHz, 1 GB de RAM y una batería de 1.785 mAh. Ambos llevan SIM dual y lo mejor del asunto, Jelly Bean. ¿Cuánto cuestan? El D1 sale a la venta por 549 reales brasileños (280 dólares/216 euros), mientras que el segundo llegará “en unas semanas” por un precio de 799 reales.

[Vía Android Central]

Read | Permalink | Email this | Comments

ALMA, el observatorio más grande del mundo, se inaugura oficialmente en Chile

ALMA, el observatorio más grande del mundo, se inaugura oficialmente en Chile:
Filed under:

ALMA, el observatorio más grande del mundo, se inaugura oficialmente en Chile

Hoy ha tenido lugar en Chile la inauguración oficial del que hasta la fecha es el observatorio astronómico más potente, complejo y ambicioso de la historia, con el que sus responsables pretenden revolucionar la cosmología actual. El proyecto ha sido bautizado como ALMA (Atacama Large Millimeter/Submillimeter Array) y está compuesto por 66 antenas que pueden operar a la vez como si de un gran radiotelescopio de 15 km cuadrados se tratara para acercarnos hasta los lugares más recónditos del universo. El conjunto se encuentra en las proximidades del poblado de San Pedro de Atacama (norte de Chile), un enclave que por su climatología desértica y sus más de 5.000 metros de altura, ayuda a mejorar la precisión en las mediciones. Su construcción ha sido equiparada nada menos que a la de las pirámides por las extremas dificultades que ha supuesto a nivel de logística y mano de obra, siendo necesarios pesados camiones y sistemas de respiración asistida para sus operarios dada la altitud.

La idea es poder observar la formación de nuevos planetas y estrellas, descubrir otros que por su lejanía han sido hasta ahora inapreciables para los instrumentos actuales e incluso investigar cómo podrían ser las condiciones de vida de otros sistemas solares. Por si esto fuera poco, el proyecto contempla también el análisis en detalle de un agujero negro o una galaxia que es capaz de producir hasta 100 soles diarios. Para hacerlo posible, cuenta además con 35 servidores PRIMERGY x86 cortesía de Fujitsu y un superordenador especializado capaz de procesar 512.000 millones de muestras por segundo. Cruzaremos los dedos para que resulten suficientes para chivatearnos unos cuantos secretos del cosmos.

[Vía PopSci]

Leer – BBC World

Leer – Fujitsu

Permalink | Email this | Comments

Mozilla lanza Firefox OS Simulator 3.0, con soporte de rotación y Push to Device

Mozilla lanza Firefox OS Simulator 3.0, con soporte de rotación y Push to Device:
Filed under: ,

Mozilla lanza Firefox OS Simulator 3.0, con soporte para rotación y Push to Device

No todos los desarrolladores tienen la fortuna de poseer prototipo con Firefox OS para crear aplicaciones antes del lanzamiento comercial de los primeros terminales con el SO del panda rojo. Una forma de ir picando código pese a la falta de hardware es usar el simulador oficial de Mozilla, lanzado hacia finales del año pasado. Lamentablemente, el software original estaba muy verde y carecía de algunas funciones realmente básicas, pero después del bautismo oficial de Firefox OS en el MWC 2013, Mozilla ha lanzado la versión 3.0 de este práctico software, todavía en fase de testeo.

Como las versiones 1.0 y 2.0, Firefox Simulator 3.0 funciona como una extensión del navegador Firefox, y está disponible para Windows, OS X y Linux, de forma que prácticamente cualquier desarrollador (o curioso) podrá jugar con él sin problemas. La última actualización incorpora Push to Device para transferir aplicaciones instaladas en el simulador a un dispositivo Firefox OS real usando un cable USB, soporte para rotación de pantalla, funciones básicas de geolocalización, varios parches de estabilidad y la nueva interfaz Gaia del sistema operativo.

Podrás encontrar todos los enlaces de descarga siguiendo el enlace de lectura.

[Vía CNET]

Read | Permalink | Email this | Comments

Samsung Galaxy S 4 ya es oficial, con pantalla 1080p de 5", Exynos 5 de ocho núcleos y cámara de 13 megapíxeles

Samsung Galaxy S 4 ya es oficial, con pantalla 1080p de 5″, Exynos 5 de ocho núcleos y cámara de 13 megapíxeles:
Filed under: ,

Han pasado diez meses desde que conocimos por primera vez aquel Samsung Galaxy S III con pantalla de 4,8 pulgadas, y hoy, tras una oleada de rumores y filtraciones con todo lujo de detalles, el fabricante coreano ha mostrado al mundo su nueva estrella: el Galaxy S 4. Eso es, con número arábigo en lugar de romano.

El último buque insignia de la marca llega con una interminable lista de nuevas prestaciones con las que acaparar la atención del público tras los otros grandes lanzamientos de sus competidores, manteniendo sin embargo la línea de diseño impuesta por su predecesor. Así pues, podemos decir que a nivel exterior el nuevo S 4 aparenta ser un S III más grande, con sus esquinas redondeadas e incluso el lateral bicolor. Lo diferenciaremos en primer lugar por su tamaño, aunque también por un nuevo motivo punteado que podremos apreciar en la carcasa.

Su pantalla Super AMOLED de 5 pulgadas se convierte en la primera del mundo en su tipo en ofrecer resolución 1080p, alcanzando una densidad de píxeles de 441 ppp y estando protegida por Gorilla Glass 3. Bajo ella, reposa un procesador Exynos 5 de ocho núcleos que se lleva todo el protagonismo con sus 1,6 GHz por núcleo, aunque en algunos países este cerebro será sustituido por un procesador de cuatro núcleos a 1,9 GHz que, aunque Samsung no ha especificado nada por ahora, intuimos que se trata de un Snapdragon 600. A él le acompañan 2 GB de RAM y en cuestiones de energía, una batería de 2.600 mAh se encargará de mantener al sistema despierto.

[Actualización: Vídeo y nota de prensa con todos los detalles tras el salto.]

Continue reading Samsung Galaxy S 4 ya es oficial, con pantalla 1080p de 5″, Exynos 5 de ocho núcleos y cámara de 13 megapíxeles

Permalink | Email this | Comments