Sony incluye soporte GLONASS en sus teléfonos Snapdragon S2 y S3 como complemento al GPS

Sony incluye soporte GLONASS en sus teléfonos Snapdragon S2 y S3 como complemento al GPS:

Filed under: ,

Si estás frustrado por la baja precisión del GPS de tu teléfono Sony Ericsson hasta el punto de valorar su sustitución, sonríe, porque los móviles del fabricante japonés con procesadores Snapdragon S2 y S3 incluirán soporte GLONASS con la última actualización de software. Si necesitas nombres concretos, los beneficiados serán los Xperia arc, arc S, ray, neo, pro, PLAY y active, además de los novísimos Xperia S y Xperia Ion (estos ya sólo con el nombre de Sony).

Gracias al uso simultaneo del sistema de posicionamiento vía satélite desarrollado por Rusia y del conocido GPS, los teléfonos de la ex de Ericsson pasarán de poder utilizar los 31 satélites de ahora a un total de 55. Según las pruebas de campo realizadas por Sony en San Francisco, la combinación GPS+GLONASS conseguiría aumentar la precisión de sus móviles hasta un 50%, con un margen de error de 2 metros. Para ahorrar batería, la recepción GLONASS permanecerá desactivada salvo en zonas de baja recepción.

Dado que la red GLONASS no tenía cobertura mundial hasta el año pasado, el número de dispositivos compatibles es relativamente reducido (el Galaxy Note y el iPhone 4 son dos de los pocos teléfonos con soporte oficial), pero Qualcomm ha incluido esta característica en todos sus chipsets Snapdragon 2 y 3, de forma que los fabricantes interesados podrán sacarle el máximo partido.

[Vía PhoneRPT]

Read | Permalink | Email this | Comments

Google Sky Map abraza el código abierto

Google Sky Map abraza el código abierto:

Filed under:

Lo ha hecho público a través de su Research Blog: Google ha anunciado la donación de Sky Map a la comunidad open source. Se trata de uno de los proyectos que vio la luz gracias al “20% del tiempo” que dedican los trabajadores a dar rienda suelta a su creatividad. Google Sky Map nació, de esta manera, en 2009 y apareció en los Android de primera generación. Ahora, tras cuatro años de vida y más de 20 millones de descargas, el código fuente del producto será entregado a la comunidad para que explote aún más si cabe sus posibilidades. ¿Éxito o fracaso? Tienes toda la información en el comunicado que encontrarás haciendo clic en Leer.

[Vía Android Central]

Read | Permalink | Email this | Comments

Las cifras reales de Megaupload

Las cifras reales de Megaupload:

Detrás del nombre Megaupload se encuentra un entramado de empresas dedicadas al alojamiento de información cuyo tamaño es mucho mayor del que podríamos imaginar.

Con la detención y enjuiciamiento de siete de sus máximos responsables han salido a la luz todos los datos, tanto técnicos como económicos de uno de los grandes emporios tapados de la red.

Con tan solo 30 personas trabajando en 9 países en imperio Megaupload es mucho más grande de lo que imaginas.

Se trata de un conjunto de empresas que engloba la propia Megaupload, Megaclick, Megapix, Megavideo y, como no, Megaporn. Tan sólo en cuentas Premium de la primera, Megaupload, se recibieron más de 110 millones de dólares.

De estos rondan los 40 millones fueron desviados a Hong Kong para evadir impuestos y MoneyBookers reportó otros 5. Además Adbrite, empresa de publicidad on-line, aportó 840.000 dólares en conceptos de publicidad.

Ellos mismos admitían que tenían más de mil millones de usuarios, lo que implica un 4 % del volumen total de Internet.

En total disponían de 25 Petabytes de almacenamiento, lo que son 25000 Terabytes, que suponen 25.000.000 de GigaBytes. Que en un idioma entendible es una auténtica barbaridad. Para gestionar esto disponían de cerca de 2000 servidores repartidos por todo el mundo.

El fallo de todo este montaje estaba en que una granja de servidores se encontraba en suelo norteamericano con lo que ahí les han pillado con el carrito del helado. [La Flecha]

La Unión Europea obligará a las tiendas a aceptar basura electrónica sin compra ni cargo alguno

La Unión Europea obligará a las tiendas a aceptar basura electrónica sin compra ni cargo alguno:

Filed under:

Desde hace ya bastante tiempo es normal encontrar tiendas de productos electrónicos en España que aceptan voluntariamente dispositivos de segunda mano para su reciclaje, pero la Unión Europea quiere hacer obligatoria la recepción en este tipo de establecimientos de aparatos viejos o estropeados con el fin de potenciar el reciclaje, tanto con propósito ecológico como estratégico.

El Parlamento Europeo ha aprobado un nuevo plan de sostenibilidad que contiene la obligación de que las tiendas de electrónica con una superficie de 400 metros cuadrados o más recojan pequeños dispositivos como pudieran ser teléfonos móviles sin cargo alguno ni necesidad de compra. Esta medida forma parte de una normativa que todavía ha de ser aprobada por el Consejo y que busca aumentar la media de reciclaje electrónico a 4 kg por habitante. Su puesta en funcionamiento se llevaría a cabo a lo largo de siete años.

Los motivos por los que la UE se ha tomado en serio el reciclaje electrónico son básicamente dos: el primero de ellos es que nuestros viejos gadgets contienen una importante cantidad de materias primas reutilizables (según Karl-Heinz Florenz, del Partido Popular Europeo, “un millón de móviles contiene 250 kilos de plata, 25 de oro y cantidades ingentes de cobre”), y el segundo, evitar la exportación de basura electrónica altamente tóxica a los países en desarrollo. Con este último fin se prohibirá exportar productos electrónicos fuera de garantía a países fuera de la OCDE a menos que sean “certificados como totalmente funcionales y enviados de forma apropiada”.

[Foto: manuelfloresv, CC 2.0]

Leer – PC World

Leer – El Correo

Permalink | Email this | Comments

Anonymous sigue dejando websites cadáveres

Anonymous sigue dejando websites cadáveres:

Las posibles SOPA y PIPA junto con el clamor popular por el cierre de Megaupload ha hecho que Anonymous haya declarado prácticamente la “guerra santa” a las productoras de contenidos y los responsables.

Ya no sólo se trata de ataques DDoS, ni robar datos, sino directamente de aniquilar borrándolo todo, al menos eso es lo que le ha pasado a la CBS. Si esto consigue parar los engendros de SOPA y PIPA bienvenidos sean, aunque quizás de esta manera no.

¿Pero va a conseguir algo realmente todos estos ataques? Pues no lo sé, fastidiar a las compañías seguro, pero lo cierto es que tanto la CBS como otras a las que se atacó anteriormente como RIAA, MPAA, EMI y Universal vuelven como si nada.

No sé si los métodos son los más apropiados y si realmente no deberíamos plantearnos otro tipo de protestas, ya que parece que el acoso y derribo a Sony no hizo realmente nada salvo fastidiar a los usuarios que vieron sus datos publicados y complicarles la vida a su equipo de técnicos que no tiene culpa de nada en lo que decidan sus ejecutivos.

El problema es que quienes hacen las leyes ven todo esto como actos vandálicos, por tanto la actitud de imponer protestas ilegales y miedo lo único que hace es que para buscar una falsa seguridad, los gobiernos al final impongan leyes más restrictivas que nos perjudiquen a todos.

El pueblo tiene mucho poder, mucho más cuando su palabra es calmada pero con tesón. La solución no está en que los gobiernos censuren a lo antidisturbios era Cuéntame y tampoco en que los hackers revienten cosas, ¿no creéis?

No estoy en contra de las protestas, me parecen perfectas, y lo que hicieron Wikipedia, Google, Yahoo! y otras me pareció perfecto y se debería quizás repetir. Los artículos y blogs de opinión, los debates, los referéndum, los signos de protesta y dejar claro a los políticos que sus votos sí que dependen de lo que hacen.

Pero estos ataques ¿qué consiguen? De hecho si veis las páginas atacadas, las más grandes han sido la que menos tiempo han tardado en volver a estar online, mientras que otras han necesitado mucho más.

Al final los más pequeños e indefensos son los que siempre caen en las guerras, y los usuarios y pequeños webmasters son los que tienen más papeletas de que cuando les toque, suponga un daño irreparable que pueda destruir un negocio. No deberíamos dejar que Internet se convirtiera en un campo de batalla.

Indignados pero no destructores, ¿no tiene más sentido decidir como protesta no usar más contenidos de quien no ofrezca alternativas? Pero claro, ¿podemos pasar sin ese último CD, sin los estrenos, sin ese último libro o juego?

¿No es demagógico también el artista que no condena la piratería pero sin embargo no ofrece una alternativa a sus fans para consumir sus productos a otro precio mucho más bajo o gratuitamente?

Claro, eso supone no tener apoyo de distribución por lo que su trabajo llega a menos, porque la costumbre es buscar en Internet lo que nos llega de tiendas, cines, tele, radio… el concepto de “lo que se lleva” que rigen modas, publicidad, famosetes y toda una masa amorfa de frivolidad que actúa como consumo de opio/ocio para el pueblo.

¿No debería ser al revés? Que Internet con sus cauces de distribución libre fuera una muestra de contenidos que hicieran que lo que la gente quiere llegue a la distribución física. Pues esto existe, lo que ocurre es que muchos de nosotros como usuarios nos seguimos rigiendo por los medios masivos y se ha llegado a un punto de falta total de valoración de lo digital.

¿Cuántos utilizan el Office pirateado cuando existe OpenOffice, LibreOffice, etc…? Ya no solo usuarios sino empresas completas que basan todo su papeleo en el sistema de Microsoft por “ser la norma” y luego se indignan cuando la copia se desactiva al actualizarse…

No me malinterpretéis, no es que esté a favor del régimen de acoso a los sistemas para compartir archivos, pero está claro que un servicio que forma parte cada vez más importante de la sociedad no puede basarse en un estado legal nebuloso.

Más que nada porque si no estaremos en un sistema reiterativo cíclico hasta que llegue un punto en el que nos veamos perseguidos por las fuerzas imperiales mientras guardamos un screener en un robot con forma de papelera.

Nueva transformada rápida de Fourier

Nueva transformada rápida de Fourier:

Consiguen mejorar aún más la transformada rápida de Fouier. La nueva versión se mucho más rápida.

Foto

No somos conscientes del gran impacto que tiene las Matemáticas en la vida cotidiana. Son odiadas por muchos e ignoradas por otros y, sin embargo, conforman el mundo moderno. Además de ser usadas por las demás ciencias se emplean directamente en muchos casos.

Un resultado de un abogado francés del siglo XVII (el pequeño teorema de Fermat) es el que ahora nos permite conectarnos de manera segura con nuestro banco. Un concepto como el de autovector usando en Álgebra es el que, en el corazón de Google, nos permite encontrar lo que buscamos en Internet. Esto por citar sólo dos ejemplos.

Una rama matemática importante es el Análisis de Fourier, que permite, entre otras cosas, representar una señal irregular como una combinación de sus frecuencias puras, como pueda ser la fluctuación en el voltaje de la corriente que circula por un cable que conecta su reproductor de MP3 si sus auriculares. El análisis de Fourier se utiliza mucho en el procesamiento de señales o para la compresión de ficheros de imagen o sonido.

Permite además transformar problemas diferenciales en problemas algebraicos que se puedan resolver. Un ejemplo típico es la búsqueda de bolsas de petróleo mediante problemas inversos. Se envían ondas sonoras (mediante explosiones) al terreno y se trata de reconstruir la posible bolsa de petróleo que hay ahí a partir de la señal rebotada. Para este tipo de problema inverso hay que ensayar multitud de posibles configuraciones de la bolsa hasta dar con la correcta. Esto exige resolver el mismo tipo de problema muchas veces cambiando los parámetros que lo determinan. Sólo con el uso de la transformada rápida de Fourier se pudo abordar ese problema. Un problema computacional que no es abordable en un momento sólo se puede abordar si se encuentran algoritmos nuevos más rápidos, no con computadoras más rápidos y potentes. Sin la transformada rápida de Fourier muchos problemas computacionales aún no serían abordables.

La transforma de Fourier es una operación matemática que permite descomponer una función en sus frecuencias constituyentes. Se define como una integral definida y no necesariamente se calcula de manera sencilla si se usan métodos analíticos. El adjetivo de “rápida” que se añade se refiere a una clase especial de transformada de Fourier. La definición de transformada de Fourier habitual es muy difícil y costosa de aplicar computacionalmente hablando. La transformada rápida de Fourier o FFT es una versión numérica, una buena aproximación a la original, y que implementada en un programa se calcula bastante rápido.

Desde que se descubrió la transformada rápida de Fourier en los años sesenta los expertos se han preguntado si habría otras versiones aún más rápidas. Ahora un grupo de investigadores del MIT presentan un nuevo algoritmo que permite hacer que la transformada de Fourier sea más rápida. En algunos casos puede llegar a ser 10 veces más rápida que la antigua versión. El nuevo algoritmo ha sido presentado en el Congreso de Algoritmos Discretos en Kioto (Japón) la semana pasada.

El nuevo algoritmo permitiría un tratamiento de imágenes más rápido o enviar un video desde un teléfono celular a otro sin consumir mucho ancho de banda o batería.

Una señal digital es un muestreado discreto de una señal analógica. La FFT toma una señal digital que contiene un determinado número de muestras y las expresa en función del peso ponderado de su equivalente en número de frecuencias. La ponderación tiene en cuenta que algunas frecuencias son más importantes que otras y las que tienen poco peso pueden ser incluso despreciadas. Por esta razón la FFT es importante en la comprensión. Un bloque 8 por 8 píxeles contiene 64 píxeles en total y puede ser determinado directamente por 64 frecuencias distintas (cada píxel de un determinado valor aparece una sola vez). Pero los estudios experimentales muestran que 57 de esas frecuencias pueden ser descartadas con una pérdida mínima de calidad de imagen.

El nuevo algoritmo determina los pesos de las frecuencias más pesadas de la señal. A esto se le puede denominar “dispersar”. Cuando más rápidamente se determinen estas frecuencias, más rápido será el algoritmo y esto dependerá de lo susceptible que sea la señal a ser “dispersada”. Si la señal es lo suficientemente “dispersa” el algoritmo puede muestrearla aleatoriamente en lugar de leerla completamente.

Pero en la Naturaleza la mayoría de las señales son dispersas. Como analogía podemos tomar una pieza musical de cámara realizadas por instrumentos musicales. En ese caso, una señal podría consistir en unos pocos instrumentos musicales de los que sólo uno toca una nota cada vez. Este tipo de señal se podría “dispersar” fácilmente por este método, sería una señal “dispersa”. Pero, por otro lado, una grabación que registrara todos los posibles instrumentos tocando todas las notas a la vez no sería una señal que se pudiera “dispersar”, pero ese tipo de señales no son interesantes.

El nuevo algoritmo descansa sobre dos ideas. La primera es dividir la señal en secciones más delgadas de ancho de banda, justo a un tamaño en el que la sección considerada generalmente contiene sólo una frecuencia con gran peso. Esto permite determinar la importancia de la frecuencia dentro de cada conjunto. Para conseguir identificar la importancia de la frecuencia dentro de cada conjunto usan un filtro que es una combinación de dos ya existentes.

Además, estos investigadores aplican una segunda idea: usar una técnica que normalmente se emplea para mejorar las comunicaciones inalámbricas. La técnica se basa en que las frecuencias más importantes modulan otras señales en el conjunto. Muestreando rápidamente el conjunto a diferentes momentos se revelan qué frecuencias dominan la señal.

En señales dispersas este nuevo algoritmo es mucho más rápido que al anterior. Estos investigadores trabajan ahora en cómo incorporar el nuevo algoritmo a las técnicas de compresión de video y audio usados en la actualidad.

Así que si el smarphone que le hagan comprar en un futuro tiene unas prestaciones mucho mejores que el actual, estas se deberán en gran parte a este nuevo algoritmo.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3724

Fuentes y referencias:

Nota de prensa.

Ilustración: csee.umbc.edu

iBooks 2: el futuro de los libros de texto ya es presente según Apple

iBooks 2: el futuro de los libros de texto ya es presente según Apple:

Apple no puede arreglar los defectos y fallos del sistema de enseñanza, pero quiere contribuir a solucionarlos.

Ese es el espíritu detrás de la presentación esta tarde desde el Museo Guggenheim de Nueva York de iBooks 2, el intento póstumo de Steve Jobs de hacer por la educación lo que Apple hizo por la telefonía móvil, la distribución y disfrute de la música y el manejo de aplicaciones mediante smartphones y tablets.

Los libros de texto actuales quedan obsoletos muy pronto, son grandes, pesados y carecen de interactividad. iBooks 2 quiere solucionar eso. iBooks 2 es una aplicación que permite crear libros para cualquier asignatura en los que además de texto e ilustraciones tienen cabida animaciones, vídeos, sonidos, gráficos interactivos… una herramienta, en suma, capaz de convertir el en ocasiones árido, aburrido y monótono acto de aprender en un hábito entretenido, divertido, atractivo y que no requiera pasear una mochila cargada de libros. El iPad e incluso el iPhone serán ahora lo único que necesites acarrear.

iBooks 2 va más allá de un editor de libros, permite construir algo que probablemente ya no pueda ser llamado libro.

Hasta ahora el concepto de material educativo pasaba por el libro con texto y fotos/gráficos, pero en plena era informática y a pesar de la gran cantidad de programas educativos existentes y materiales de apoyo para casi todas las asignaturas, los escolares seguían teniendo como material de base el bueno y viejo libro. Y Guttenberg ya lleva mucho tiempo obsoleto para según qué cosas.

En Apple han decidido poner al servicio de la comunidad educativa lo que podríamos llamar el “Garage Band” de los libros de texto, una herramienta que permite al profesor (o al autor) elaborar una aplicación educativa en la que convive el texto con los materiales multimedia interactivos necesarios a través de iBooks Author para Mac OS X. Esta aplicación entra en competencia con Adobe DPS y con Kindle Direct Publishing de Amazon.

Aquí podéis ver un vídeo de uno de estos nuevos libros de texto en acción con todas sus posibilidades.

Al mismo tiempo el propio iBooks 2 permite adquirir estos “libros” (ahora mismo se puede descargar 8 gratuitamente, el precio habitual rondará los $15). Funciona de una forma semejante a iWorks y permite dar formato a cualquier contenido proveniente de dicha aplicación (texto, gráficos, fotos, vídeos, sonidos, presentaciones…) y en la demo que ha tenido lugar en el evento de presentación los asistentes han podido comprobar cómo se creaba un libro de texto en sólo 5 minutos.

Entre algunas interesantes características podríamos resaltar la de la confección automática de fichas en las que se inserta cualquier texto que hayas subrayado de manera que tienes resúmenes, esquemas y referencias hechas al instante.

Pensando en la comunidad educativa universitaria existe iTunes U, que vendría a ser la versión para estudiantes de facultad de iBooks 2. En ella se pueden encontrar aplicaciones sobre materias de diversas áreas, desde asignaturas sueltas a cursos completos, y ya hay universidades estadounidenses (Duke, Stanford, Yale y el Instituto Tecnológido de Masachussets) que han creado más de un centenar de estas aplicaciones educativas de forma gratuita para sus alumnos. Desde materiales a ejercicios pasando por clases donde puedes “rebobinar” para volver a escuchar una explicación del profesor que no has entendido.

En esta grana ventura editorial Apple no camina sola y aunque cualquiera puede elaborar su propio libro-aplicación la compañía de Cupertino ya habría llegado a acuerdos con grandes editoriales como McGraw-Hill o Pearson.

Si Apple revolucionó hace unos años el panorama de la edición musical con iTunes todo parece indicar que ahora podría hacer lo propio con la edición de libros de texto, dado que además del atractivo que supone la naturaleza multimedia e interactiva de estos contenidos, cualquiera puede elaborar su propio libro de texto y ofrecerlo a través de iBooks 2 como sucede con las miles de aplicaciones para iPhone/iPod Touch/iPad.

La pega es que ahora estar enfermo no será una excusa para saltarse las clases.─[iTunes / iTunes U]

Anonymous clama vendetta tras la clausura de Megaupload

Anonymous clama vendetta tras la clausura de Megaupload:

La respuesta de Anonymous ante el cierre de Megaupload ha sido rápida, clara y fulminante. El mayor ataque DDoS de la historia se ha propagado como una canción de verano en agosto por páginas de la justicia, cine y música de EEUU, dejándolas fuera de servicio durante bastante tiempo, aunque ahora mismo la mayoría ya ha vuelto a la normalidad.

El ataque ha afectado a las páginas de FBI, el departamento de justicia y la Oficina de Copyright de EEUU, Hadopi, Universal Music, RIAA, MPAA, EMI y WMG.

Un ataque a gran escala fulgurante que a pesar de su propagación tampoco es que haya tenido ninguna consecuencia salvo ser una demostración “de fuerza” pero que ha parecido controlable.

Se nota que están cabreados ya de por sí por la SOPA y PIPA, no es para menos, y lo de Megaupload ha sido la excusa perfecta para que la rabia explote y salga a lo botella de cava recién descorchada.

¿Será esto el nuevo comienzo de una nueva serie de ataques? No lo parece ya que el gobierno estadounidense, gracias a la presión en Internet, parece que va a olvidarse de SOPA y PIPA, pero claro, solo por ahora.

Pero todo apunta a que el cierre de Megaupload podría haberse “coordinado” con la SOPA y PIPA, para que la gente mirara a otro lado y forzara una respuesta “criminal” que luego maquillara y justificara ambos proyectos de ley para controlar el poder indiscriminado de los “desalmados” ciberactivistas.

Menos mal que en Internet las cortinas de humo son mucho más difíciles de desplegar y por mucha crisis y conflictos que haya es difícil que pase sin tener una oposición con respuesta masiva.

Pero bueno, no nos confiemos de lo que puede llegar a pasar en EEUU, si George Bush consiguió salir elegido en dos legislaturas consecutivas todo es posible. [comunicado de Anonymous]

Avance en la tecnología de rayos T

Avance en la tecnología de rayos T:

Tricorder de Star Trek
En un artículo publicado reciéntemente en ‘Nature Photonics’, un grupo de investigadores del Institute of Materials Research and Engineering (IMRE), del Imperial College (Reino Unido), ha transformado los rayos T (ondas electromagneticas que se propagan en las frecuencias en el rango de terahertz), en un haz de luz mucho más direccional de lo que se creía posible. Y todo, sin requerir unas condiciones de temperatura muy elevadas.

Este gran paso, posibilita que en un futuro cercano tengamos a nuestra disposición el famoso Tricorder de Star Trek: un dispositivo portátil de escaneo y análisis de datos. Ya que estas ondas son capaces de detecar diferentes fenómenos biológicos como un incremento en el flujo sanguíneo debido al crecimiento de tumores. Cuando avance la tecnología podríamos incluso disfrutar de una comunicación inalámbrica de banda ancha para retransmitir estos datos.

Los rayos T son ondas situadas en la parte más roja del espectro electromagnético. Hablando de longitudes de onda, este rango corresponde de 0.1 mm en el infrarrojo a 1.00mm en las microondas.

Este tipo de ondas se están utilizando actualmente en los sistemas de escaneado en los aeropuertos, diversos prototipos médicos y en sistemas espectroscópicos. Estas ondas son capaces de detectar ciertas moléculas, ya que poseen una ‘firma única’ en el rango de los terahertzios. Otras posibles aplicaciones podrían ser la detección de explosivos, drogas o gases.

Sin embargo, la tecnología existente para generar estas ondas requería bajas temperaturas y un alto consumo de energía. Con este nuevo hallazgo, el grupo de científicos ha demostrado que es posible generar un fuerte haz de onda mediante la iluminación de un par de electrodos a diferentes longitudes de onda. Este electrodo consiste en dos tiras de metal separadas 100 nanómetros y situadas en la parte superior de una oblea de semiconductor.

El investigador principal, Dr Jing Hua Teng, afirma:

El secreto detrás de este hallazgo, recae en una nueva nano-antena que hemos desarrollado e integrado dentro del chip semiconductor.

Una matriz de estas antenas son capaces de generar campos con una potencia 100 veces superior a la actual, consiguiendo una mayor resolución en las imágenes capturadas.

Vía | Agency for Science Technology and Research (A*STAR)

Más información | Greatly enhanced continuous-wave terahertz emission by nano-electrodes in a photoconductive photomixer” is published in Nature Photonics by H Tanoto, JH Teng, QY Wu, M Sun, ZN Chen, SA Maier, B Wang, CC Chum, GY Si, AJ Danner and SJ Chua. DOI:10.1038/nphot.2011.322

SINDE, SOPA, PIPA… o como los gobiernos quieren acabar con la red

SINDE, SOPA, PIPA… o como los gobiernos quieren acabar con la red:

Aunque a muchos han llegado sólo noticias de la ley SINDE, lo cierto es que cosas similares están pasando por varios países, y todo como viene siendo habitual y últimamente nos están probando gracias a WikiLeaks, suele venir orquestado por EEUU que presiona a los demás gobiernos para que comiencen a darles a unos pocos el poder de censurar Internet como les venga en gana.

Si te gusta Internet como lo que es hoy en día, te interesará saber que está pasando y el sistema de censura al más puro estilo Cuéntame que nos quieren imponer a todos, en el que en lugar del régimen y la Iglesia el poder lo ostentarán ahora las grandes productoras y corporaciones.

En su momento en España nos libramos por los pelos de la ley SINDE, pero lamentablemente con la excusa de la crisis muy probablemente el nuevo gobierno nos la metan sin que nos demos cuenta y sin que podamos hacer nada al respecto.

No es cuestión de ideologías políticas, sino cuestión de mayoría absoluta (lo peor que le puede pasar a los ciudadanos) y que nos deja sin la mejor baza en caso de leyes absurdas, una oposición que pueda frenarlas aunque sólo sea por hacerle la puñeta al gobierno.

Pero lejos de nuestras tierras, aunque muy cerca interneteramente hablando, en EEUU se plantea algo similar que incluso va a ser peor, ya que afectaría mundialmente a Internet y lo transformaría para siempre. Estamos hablando de SOPA y PIPA.

No, aunque parezcan los nombres de dos tiernas mascotas infantiles, realmente se refieren a Stop Online Piracy Act y Protect IP Act, dos proyectos de ley que se van a debatir en el Congreso y Senado de EEUU, y que permitirían el mayor chuleamiento a los derechos de libertad de expresión desde hace años, con consecuencias increíblemente destructivas para Internet.

Pero ¿cuáles son esas consecuencias? ¿por qué son realmente tan malas? Teóricamente buscan proteger los ingresos de los creadores de contenidos y la propiedad intelectual, pero para ello se basan en varias cosas: bloquear el acceso a dominios que los hayan infringido y evitar que puedan usar sistemas de publicidad o de pago.

Esto supondría que el gobierno estadounidense y las empresas podrían bloquear webs como YouTube, Facebook, o cualquiera estadounidense o de fuera, si no censuran contenidos ya que ellos se convertirían en los responsables de lo que los usuarios publican. Además convierte el streaming de contenidos protegidos en crimen, con penas de hasta 5 años.

El problema es que para “defender” los derechos de algunos se permite que se puedan empezar a censurar contenidos, pudiendo escalar a que cada gobierno bloquee lo que le de la gana. Las redes sociales ya no serían libres para dejarnos poner lo que nos de la gana. Es tan genérico que cualquier negocio en Internet se vería afectado y la filosofía open source se vería muy afectada.

Además también plantea riesgos técnicos para los servidores DNS, la seguridad y privacidad de las comunicaciones en la red y como no, podría hacer a cualquier usuario culpable de un delito penal.

Vamos, que el mundo futurista de supercorporaciones que controlarían a la población no empezaría a parecer ciencia ficción.

No sé vosotros, pero yo no tengo ganas de que todo esto siga adelante y me da bastante pereza tener que formar una resistencia para ir luchando con tropas en armaduras blancas o tener que rescatar a mis sobrinos de prisiones de máxima seguridad por subir un vídeo de Pocoyó, para que tras décadas de encarnizadas batallas en una misión épica acabemos con su centro de operaciones y todo vuelva a ser como ahora.

Muchas veces nos quejamos de que el mundo es una mierda y no podemos hacer nada por evitarlo. Sí que podemos, así que unámonos a las protestas y empecemos a dejar claro a los gobiernos que basta ya de chulearnos. Ya estás tardando en pintarte la mitad de la cara de azul y salir corriendo y gritando por la calle con falda.

¿Baterías de litio-aire?

¿Baterías de litio-aire?:

Tratan de desarrollar baterías de litio-aire para dotar de mucha más autonomía a los automóviles eléctricos.

Foto

Fuente: Wikimedia Commons.

Las limitaciones del uso de automóviles eléctricos vienen dadas por su batería. Como ya hemos visto muchas veces en NeoFronteras, las baterías son caras, pesadas, lentas de cargar y proporcionan una autonomía ridícula.

O, al menos, era lo que parecía hasta ahora y quizás se necesitaba que se metiera en el campo un gigante como IBM. Esta compañía dice estar en el camino de conseguir unas baterías de Lítio-aire capaces de proporcionar una autonomía de hasta 800 Km en lugar de los 160 Km proporcionados por las baterías habituales de ion-litio. Su densidad de energía teórica es 1000 veces mayor que la mejor de ion-litio, densidad que la coloca casi al mismo nivel que la gasolina.

En lugar de usar un óxido metálico como electrodo positivo usa carbono, que es más ligero. El carbono reacciona con el aire circundante y produce una corriente eléctrica.

Winfried Wilcke y su equipo de los laboratorios Almadén en San José (California) han estudiado este tipo de baterías y descubierto que el oxígeno no solamente reacciona con el carbono, sino además con el electrolito. Pero si esto segundo ocurre, al final sucederá que el electrolito terminará gastándose. Así que estos investigadores hicieron simulaciones computacionales sobre este proceso para ver cómo evitarlo. Aunque no desvelan aún cómo lo han conseguido, parece que los resultados son prometedores y esperan tener un prototipo a escala real para 2013 y versiones comerciales para alrededor de 2020.

Un problema a solucionar será cómo controlar el problema del aire húmedo, pues el litio reacciona con el agua produciendo fuego.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3719

Fuentes y referencias:

NewScientist.

Robots a lo open-source para la cirugía del mañana

Robots a lo open-source para la cirugía del mañana:

Lo que estáis viendo en la foto puede que en un futuro se conviertan en piezas de museo como las herramientas que revolucionaron la cirugía robótica. Se trata de tres robots idénticos Raven II, que junto con otros 4 forman parte de un ambicioso proyecto estadounidense para llevar la metodología open-source al mundo de la cirugía robótica.

Pinche aquí para ver el vídeo

El proyecto está financiado por la National Science Foundation de EEUU y consiste en 7 robots quirúrgicos Raven II diseñados de manera conjunta entre la Universidad de California, Santa Cruz, y la Universidad de Washington.

Dos de ellos se quedarán en sus lugares de gestación, mientras que los otros 5 irán a diferentes universidades estadounidenses donde se intentará desarrollar al máximo la investigación, procedimientos y mejoras partiendo todos del mismo hardware y software.

Se podrán además conectar entre ellos por Internet y realizar experimentos colaborativos compartiendo datos. Utilizan software open-source creado usando Robot Operating System, por lo que además de compatibles entre ellos, también lo son con muchos otros robots existentes.

Gracias a esto, la labor y utilidad de los robots en los hospitales e intervenciones quirúrgicas puede evolucionar considerablemente y convertirse en algo normal y cotidiano.

¿Tanto que significa que veremos algún día una serie híbrida de “Todos mis Circuitos” y Urgencias? Probablemente, pero casi seguro que no veremos a un Raven II haciendo de doctor Carter ni un Roomba haciendo de enfermera. [Gizmag]

Samsung unifica bada y Tizen bajo un solo gran proyecto

Samsung unifica bada y Tizen bajo un solo gran proyecto:

En Samsung no tienen problemas utilizando y dando soporte a diferentes sistemas operativos en toda su amplia gama de dispositivos. Desde Android a Windows Phone pasando por bada, su sistema operativo propietario que ahora se va a unir con el proyecto Tizen, que también tiene el apoyo del gigante Intel.

La unificación de ambos sistemas operativos ya es un hecho, y aunque no se tiene una fecha de completación, sí se sabe que ya hay harto trabajo adelantado. Según el Tae Jin-Kan, Vicepresidente Senior del equipo de planificación de contenidos de la marca coreana, la idea detrás de esto es que finalmente “los desarrolladores que ya saben trabajar en bada, entiendan el modelo de creación de aplicaciones de Tizen”, ya que la integración entre ambos SO será total. De hecho, incluso habrá retrocompatibilidad total: las aplicaciones ya creadas para bada serán totalmente funcionales en Tizen, y el kit de desarrollo final para ambos sistemas operativos (o “el” sistema operativo) será exactamente el mismo.

Por ahora, parece ser que la idea es que: bada vaya orientado a equipos de gama media, y Tizen se utilice en equipos de alto rendimiento. No hay planes cercanos de que esta unificación de sistemas operativos sea la plataforma principal de Samsung, pero sí podría ser que durante este año se lancen al menos un par de equipos con el nuevo sistema operativo.

Han habido bastantes especulaciones sobre esta movida de Samsung, principalmente por el tema de fragmentación del mercado, y por la factibilidad que tengan en Samsung para poder trabajar con tantas plataformas a la vez. Sin embargo, se cree que esto tiene sentido desde el punto de vista que a la compañía le interesa fortalecer su propio sistema operativo para tener mayor control sobre sus productos; no hay que olvidar que Samsung es uno de los fabricantes de celulares, smartphones y tablets que más modelos tiene en el mercado.

Y por si alguien no sabe de que se trata Tizen exactamente, este es un nuevo sistema operativo que de alguna forma toma el relevo de lo que fue MeeGo, y que está pensado para utilizarse en un rango bastante amplio de dispositivos que van desde teléfonos hasta automóviles, pasando incluso por netbooks.

Link: Samsung Merging Its Bada OS With Intel-Backed Tizen Project (Forbes)

La Vía Láctea contiene miles de millones de planetas habitables

La Vía Láctea contiene miles de millones de planetas habitables: Observaciones astronómicas realizadas durante seis años a millones de estrellas de nuestra galaxia han demostrado que es muy común que éstas tengan planetas orbitando a su alrededor dentro la llamada “zona de habitabilidad”, región alrededor de las estrellas en las que la temperatura es la adecuada para que los planetas tengan líquido en su superficie. Los científicos aseguran que, por tanto, habría miles de millones de planetas habitables en la Vía Láctea. En algunos de ellos podrían haberse desarrollado formas de vida completamente distintas a las que conocemos, afirman los investigadores. Por Yaiza Martínez.

La Vía Láctea contiene miles de millones de planetas habitables

Observaciones astronómicas realizadas durante seis años a millones de estrellas de nuestra galaxia han demostrado que es muy común que éstas tengan planetas orbitando a su alrededor.

Esta es una de las conclusiones alcanzadas por un equipo de astrónomos, entre los que se cuentan miembros del Instituto Niels Bohr de l…

Tendencias 21 (Madrid). ISSN 2174-6850

El bit magnético más pequeño

El bit magnético más pequeño:

Para conseguir el bit magnético más pequeño sólo se necesitan 12 átomos de hierro a muy baja temperatura.

Foto

Pie-de-foto. Fuente: Sebastian Loth/CFEL.

¿Cuántos átomos son necesarios para almacenar un bit de información? No lo sabemos seguro, pero el record alcanzado por investigadores de centro Almadén de IBM, la Universidad de Hamburgo y un centro de investigación alemán dice que bastan 12 átomos, unos 96 para un byte. Un moderno disco duro usa, en comparación, unos 500 millones de átomos por byte.

Estos investigadores construyeron un patrón regular de átomos de hierro alineados en dos filas de seis átomos sobre una superficie de nitruro de cobre. Un byte construido por 8 de estos bits ocuparía un área de 4×16 nm. Esto corresponde a una densidad de información cientos de veces superior a la de los modernos discos duros.

El almacenamiento de información en este caso es magnético y la lectura y escritura de datos se efectuó con la punta de un microscopio de efecto túnel. Un impulso eléctrico sobre la sonda cambiaba la configuración de un 0 a un 1 cambiando en estado de imanación y un impulso más débil permitía su lectura. Para poder conseguir esto el grupo de átomos de hierro se mantuvo a 5 grados Kelvin. Como todo el mundo sabe la temperatura, que introduce desorden en todo sistema, es una gran enemiga del orden magnético. También hay que tener en cuenta los efectos cuánticos, pues si la escala es muy pequeña un bit puede cambiar de estado por efecto túnel, incluso al cero absoluto de temperatura.

Sin embargo, los investigadores esperan que grupos de 200 átomos mantengan un orden magnético estable a temperatura ambiente, aunque se necesitarán años de desarrollo hasta llegar a productos comerciales.

Por primera vez han conseguido usar antiferromagnetismo en lugar del ferromagnetismo empleado en los discos duros convencionales. En la interacción antiferromagnética los momentos magnéticos tienden a apuntar en direcciones antiparalelas y en la ferromagnética en direcciones paralelas. El uso del antiferromagnetismo permite un empaquetamiento más compacto y permite separar bits a sólo un nanometro unos de otros.

En lugar de tratar de miniaturizar lo que ya existe, estos investigadores pensaron en dirección opuesta y partieron de lo más pequeño (un átomo) y comprobaron el mínimo conjunto de átomos en la configuración adecuada que permitía alcanzar el objetivo. Resultó ser un grupo de 12 átomos de hierro.

El experimento también ha permitido sentar las bases de un posible estudio de la transición del mundo clásico al cuántico. Así, se podría usar para analizar los efectos físicos cuánticos a través del cambio del patrón formado por los átomos de hierro en el conjunto. ¿Cómo se comporta un imán en la frontera entre los dos mundos? ¿Qué hace diferente a un imán cuántico de uno clásico?

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3717

Fuentes y referencias:

Nota de prensa.

Artículo original.

Se confirma la existencia de planetas que orbitan dos estrellas

Se confirma la existencia de planetas que orbitan dos estrellas:

Kepler 34 y 35
Utilizando datos de la misión Kepler de la NASA, un grupo de astrónomos acaban de confirmar el descubrimiento de dos nuevo sistemas planetarios “circumbinarios” —planetas que orbitan dos estrellas. Esta confirmación establecce que este tipo de planeas no es una rara excepción, sino que es algo bastante común en nuestra galaxia. Esta investigación se acaba de publicar en la revista Nature y ha sido preentado en la reunión de la American Astronomical Society en Austin, Texas.

A partir de los datos de la misión Kepler, un equipo de astrónomos de la Universidad de FLorida ha descubiertos dos nuevos planetas orbitando sistemas de doble estrellas. Algo que nunca se había visto hasta el pasado mes de septiembre.

Los planetas recién descubiertos, llamados Kepler-34b y Kepler-35b, se han publicado esta semana en la edición on line de la revista de la revista Nature en un artículo publicado por Eric B. Ford, profesor asociado de la Universidad de San Diego.

Kepler-34b y Kepler-35b orbitan una estrella binaria. En realidad son un par de estrellas unidas gravitatoriamente que orbitan entre sí. Si bien la existencia de dichos organismos —llamados “planetas circumbinarios“— había sido predicha desde hacía tiempo, hasta el descubrimiento del planeta Kepler-16b “Tatooine” no se pudo confirmar la teoría.

Tal y como afirma el profesor Ford:

Hemos creído durante mucho tiempo en la posibilidad de este tipo de planetas, pero han sido muy difíciles de detectar por varias razones técnicas. Con los descubrimientos de Kepler-16b, 34b y 35b, la misión Kepler ha demostrado que la galaxia está llena de millones de planetas que orbitan dos estrellas.

Los planetas fueron descubiertos mediante la medición de la disminución de luz de las estrellas. Se hicieron diferentes mediciones cuando los planetas pasaban por delante de una de los dos estrellas, o cuando una de las estrellas pasaba por delante de la otra. Las interacciones gravitatorias entre las estrellas y los planetas ocasionan, han perimitido a los astrónomos medir su masa.

Ambos planetas son gigantes de gas de baja densidad. Son comparables a Júpiter en tamaño, pero con mucha menos masa. En comparación con Júpiter, Kepler-34 es un 24 por ciento más pequeño en tamaño, pero posee una masa de un 78 por ciento menor. Además, es capaz de completar una órbita completa en 288 días terrestres. En cuanto a Kepler-35, es aproximadamente un 26 por ciento más pequeño, posee un 88 por ciento menos de masa y compla su órbita alrededor de las estrellas en tan sólo 131 días terrestres.

Vía | University of Florida

El proyecto Google Body vuelve como Zygote Body

El proyecto Google Body vuelve como Zygote Body:

Zygote Body
Hace algún tiempo Google decidió cancelar un ambicioso e interesante proyecto llamado ‘Google Body’. Esta aplicación web permitía indagar en las interioridades de nuestro cuerpo, pudiendo separar las diferentes capas y obtener una imagen en 3D. ‘Google Body’ fue retirado el año pasado al igual que otros servicios. Sin embargo, hoy se anuncia que el proyecto se vuelve a retomar bajo el nombre de Zygote Body y que además es de código abierto.

Zygote Body ofrece la misma navegación, la estructura por capas y la búsqueda interna que ofrecía Google Body. Soportando su visualización en todos los navegadores que soporten WebGL. Para ello el equipo de Google ha sacado una nueva versión de su visor 3D que está disponible en open-3d-viewer.googlecode.com. Este visor proporciona un método estándar para crear y visualizar modelos 3D en un navegador web.

Enlace | http://zygotebody.com/

Hallado en Australia un mineral que solo se había encontrado en la Luna

Hallado en Australia un mineral que solo se había encontrado en la Luna:

Como ya os había referido en dos artículos diferentes, Australia es una gran desconocida donde aún se pueden encontrar cosas extrañas: Un puñado de cosas que no sabías sobre Australia: arañas desconocidas, explosiones nucleares y gigantescas reservas de oro y Más cosas que no sabías sobre Australia: naturaleza hostil, invasión conejil y personas que cuentan hasta 5.

Ahora debemos sumar la Tranquilita a la lista.

La Tranquilitita es un mineral compuesto por hierro, oxígeno, silicio, zirconio, titanio y trazas de itrio y calcio cuyos cristales tienen forma hexagonal y que, hasta el momento, solo se había encontrado en el Mar de la Tranquilidad, en la Luna, en unas muestras de rocas que databan, según las pruebas realizadas por la NASA, de hace 3.710 millones de años.

Las trazas del mineral, encontradas en seis yacimientos al oeste de Australia, son minúsculas, ciertamente: tienen el ancho de un cabello humano y unas pocas micras de longitud. Pero no deja de ser un hallazgo sorprendente, pues pueden servir de indicador de la antigüedad de las rocas en los que se encuentra (podrían usarse medidas de precisión de las proporciones de isótopos radiactivos del mineral para discernir la edad de las rocas) y, así, facilitar a los científicos el estudio de la superficie de nuestro planeta, tal y como señala el responsable del hallazgo: el paleontólogo Birger Rasmussen de la Universidad Curtin.

Poco después de que regresaran de la Luna los primeros astronautas de Apollo, los científicos analizaron muestras de rocas ígneas, conocidas como basalto, que habían recopilado. Las rocas contenían tres minerales anteriormente desconocidos, dos de los cuales (armalcolita y peroxferroíta) se encontraron en la Tierra en la última década aproximadamente. La Tranquilita (llamada así por haberse encontrado en el Mar de la Tranquilidad) se creía inédita en la Tierra.

Robert Hazen, científico de la Tierra en la Institución Carnegie para la Ciencia en Washington, D.C., señala que no es sorprendente que la Tranquilitita no se haya mostrado hasta ahora: el mineral solo aparece en pequeñas cantidades y se desarrolla durante las últimas etapas de cristalización de rocas fundidas en condiciones pobres en oxígeno.

Vía | Alt1040 | Ciencia Canija

¿Detectaremos lunas habitables?

¿Detectaremos lunas habitables?:

Publican modelos que permitirían la detección, con la actual tecnología, de exolunas que orbiten alrededor de otros exoplanetas. Algunas de ellas, si existen, podrían estar en la zona habitable.

Foto

Fuente: University of Washington.

Hace unos años los astrofísicos creían que los otros posibles sistemas solares que pudiera haber por ahí afuera debían de ser similares al nuestro, con unos pocos planetas de tipo rocoso en las cercanías de la estrella y los gigantes gaseosos muchos más alejados.

Cuando se empezaron a descubrir otros planetas por la técnica de velocidad radial por Doppler se empezó a ver que quizás las cosas no eran así. Esa técnica tiene cierto sesgo, pues cuanto más masivo es el planeta más fácilmente puede ser detectado. Pero ulteriores observaciones y los nuevos datos procedentes del método de tránsito indican que prácticamente se puede dar cualquier configuración planetaria, incluso con planetas de tipo joviano orbitando tan cerca de su estrella que su temperatura debe ser altísima.

El santo grial de este tipo de investigación es encontrar un planeta como la Tierra, de un tamaño muy similar a la misma, en la zona habitable de una estrella similar al Sol y que haya tenido tiempo de evolucionar lo suficiente como para tener agua y atmósfera. Al fin y al cabo, lo que queremos saber es si estamos o no solos en el Universo, si la vida es algo raro y escaso cuyo casi único ejemplo es la vida en la Tierra o bien si el Universo está lleno de seres vivos. Incluso nos bastaría con saber que por ahí hay algún que otro microbio.

De momento no se ha encontrado una Tierra II, aunque ya hemos visto en NeoFronteras, que tenemos buenas aproximaciones a falta de nuevos datos.

Entre las configuraciones que se pueden dar está la existencia de planetas gigantes gaseosos de tipo joviano en la zona de habitabilidad. La misión Kepler ya propone la existencia de 37 exoplanetas similares a neptuno y 10 similares a Júpiter en la zona de habitabilidad de sus estrellas.

Un planeta de ese tipo no favorece en principio la vida tal y como la conocemos, esté en la ubicación que esté. Pero, ¿y si tiene lunas rocosas de un tamaño similar a la Tierra? La idea no es descabellada y la ciencia ficción ya la ha explotado. Aunque la realidad es que no sabemos si tal situación es o no frecuente.

Si nos fijamos en nuestro sistema solar, los planetas jovianos tienen lunas más bien pequeñas. Digamos que la relación entre la masa de la luna y la de su planeta es muy pequeña. Si estuvieran en la zona habitable estas lunas no podrían retener una atmósfera.

Sin embargo, la existencia de nuestra propia luna indica que es plausible la existencia de una luna con una relación de masa más grande. Además algún planeta joviano gigante puede haber capturado un planeta de tipo rocoso en su emigración hacia el interior de su sistema solar.

En realidad lo que sucede es que las estadísticas de un caso no son buenas y no tenemos aún datos sobre la posible existencia de exolunas, ni mucho menos sobre exolunas gigantes en la zona habitable.

Para remediar esto varios equipos de investigadores trabajan en el desarrollo de modelos que permitan a los astrónomos encontrar exolunas entre sus datos. Nos referimos a datos sobre tránsitos obtenidos de misiones espaciales como Kepler.

Descubrir exoplanetas o exolunas no es fácil porque uno de esos eventos disminuye muy poco la luz de la estrella. Además, ésta puede tener manchas solares sobre su superficie que produzcan efectos similares a los atribuidos a un tránsito. Se necesitan varios eventos y bastante trabajo antes de confirmar la existencia de un exoplaneta, además de modelos contra los que comparar los datos obtenidos.

David Kipping, del Harvard-Smithsonian Center for Astrophysics, ha desarrollado uno de estos nuevos modelos que permitirá el descubrimiento de exolunas si es que éstas existen. Cuando un exoplaneta de tipo joviano pasa por delante de su estrella resta un poco de luz de la misma, cosa que ya podemos medir con telescopios como Kepler. Si tiene una luna también se producirá una contribución a esa disminución de luz, pero además se producirá un ligero aumento de la luz recibida cuando la luna pase por detrás de su planeta mientras éste todavía esté sobre el disco solar (siempre bajo nuestra perspectiva). Este tipo de sucesos serán posibles si la luna y exoplaneta se formaron a la vez y, por tanto, sus órbitas están en el mismo plano.

Luis Tusnki, del Instituto Nacional de Investigación Espacial de Brasil, y sus colaboradores han desarrollado otro modelo con el mismo propósito. En este caso se tiene muy en cuenta la existencia de manchas solares, que producen señales muy parecidas a la que se quieren observar. El modelo de Kipping necesita de la observación de oscilaciones estelares para distinguir las manchas solares del efecto producido por la exoluna en cuestión.

András Pál, del Observatorio Konkoly de Hungría, ha desarrollado otro modelo que es capaz de simular varias lunas orbitando un exoplaneta en lugar de sólo una como los anteriores, pero está limitado a órbitas circulares.

Con estos modelos una misión como CoRoT podría detectar una exoluna de una tamaño 1,3 el terrestre y la misión Kepler lunas de hasta un tamaño tan pequeño como 0,33 el terrestre. Los primeros datos en ser obtenidos de esas hipotéticas exolunas, además del tamaño, serían lo parámetros orbitales. Como siempre haría falta una tecnología superior a la que tenemos ahora para obtener datos espectroscópicos que nos permitan saber la composición atmosférica.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3710

Fuentes y referencias:

Nota en Astrobio.

Artículo en ArXiv.

SpareOne, un móvil que funciona durante… ¡15 años! – CES 2012

SpareOne, un móvil que funciona durante… ¡15 años! – CES 2012:

Filed under: ,

No todo en esta vida van a ser sofisticados smartphones ni complejos terminales al servicio de los más tecnófilos. Hay un mercado que reivindica lo básico, o si lo prefieres, lo más práctico. Un buen ejemplo de ello puede ser SpareOne, un teléfono móvil que disfruta de una duración de la batería de hasta 15 años con una sola carga. El terminal ha sido diseñado para ser empleado como segundo móvil y sobre todo, en situaciones de emergencia (ideal para llevarlo en la guantera del automóvil).

Se trata de un móvil muy económico y que cuenta con una pila AA de Energizer (de hecho, está fabricado por Xpal Power, la firma vinculada con Energizer y PowerSkin), que mantiene su carga durante 15 largos años. Se trata de un móvil GSM de banda dual que transmite su posición y vendrá de perlas, como te decimos, para emergencias o bien para actos corporativos en los que haya que prestar algún móvil a alguien.

Sale a la venta este mismo trimestre por un precio de 49,99 dólares (unos 40 euros) y por ese importe te llevarás el terminal, la pila de Energizer y una microSIM para poder efectuar las llamadas.

Read | Permalink | Email this | Comments

Ubuntu TV anunciada durante el CES, nos regala un pequeño video para los curiosos

Ubuntu TV anunciada durante el CES, nos regala un pequeño video para los curiosos:

Filed under: ,

Sabíamos que Ubuntu estaría presente en el CES, pero no teníamos ni la mínima idea de para qué. Ahora sabemos que se trata de una interfaz para TV que permitirá ver películas, servicios como YouTube y la señal de la televisión por cable. Por ahora los detalles son escasos, y ni siquiera se han confirmado todas las características, porque todavía está en desarrollo; de todas maneras, una demostración técnica (algo así como un prototipo) estaría siendo usado para mostrar su funcionamiento en el stand de Ubuntu en la feria de Las Vegas. Como no podía ser de otra manera, pasaremos por el stand tan pronto nos sea posible (todavía no abren las puertas) y te contaremos acerca de lo que veamos.

Continue reading Ubuntu TV anunciada durante el CES, nos regala un pequeño video para los curiosos

Read | Permalink | Email this | Comments

Victorinox anuncia oficialmente la navaja SSD con 1 TB de almacenamiento

Victorinox anuncia oficialmente la navaja SSD con 1 TB de almacenamiento:

Filed under:

Suponíamos que el anuncio oficial llegaría en cualquier momento, y aquí está. Esa navaja con 1 TB de almacenamiento y pantalla LCD ya es una realidad. Entre las características se habla de conectividad eSATA II y III y USB 2.0 y 3.0, en un mismo conector (nunca hemos oído sobre algo así). Se habla además de almacenamiento SSD, una pantalla LCD monocromática que muestra el contenido en la memoria, velocidades de lectura de 22 MB/s y escritura de 150 MB/s, a la que se puede aplicar criptografía AES de 256 bits basada en hardware y software. Se venderá también una versión sin tijeras y cuchillo para que no existan problemas con seguridad. Podrá adquirirse en versiones de 64, 128 y 256 GB.

Mencionan además una memoria USB 3.0 súper delgada, que sería diez veces más rápida que el modelo anterior. Sin embargo por ahora no tenemos información sobre precios de ninguno de los modelos, pero esperamos que esos importantes detalles aparezcan en cualquier momento.

Permalink | Email this | Comments

Espectacular time lapse de la construcción en China de un edificio de 30 plantas en 15 días

Espectacular time lapse de la construcción en China de un edificio de 30 plantas en 15 días:

¿Cómo no van a terminar dominando el mundo si son capaces de levantar un rascacielos en un par de semanas?

Un edificio de 30 pisos de altura construido en 360 horas. Es lo que ha sucedido en la provincia china de Hunan y que hemos podido conocer gracias a un asombroso vídeo en time-lapse enviado por un lector de Gizmodo llamad Xian Min Zhang. Podéis ver el documento gráfico a continuación.

Está pasando ahora mismo en China.

Te vas de vacaciones un par de semanas y cuando vuelves a tu casa la preciosa vista que tenías desde tu ventana se ha cambiado por un rascacielos de 30 plantas que apenas te deja ver la luz del sol.

Es la prisa que se dan para construir en algunas regiones de ese gran país que está experimentando un crecimiento inaudito, como el caso de este edificio que alberga unos 55.000 metros cuadrados y que de la nada hasta la planta 30 ha necesitado únicamente 15 días.

Aquí está el espectacular vídeo de esta ultraveloz construcción.

La compañía que lo ha levantado, Broad Group, está especializada en arquitectura sostenible y emplea módulos prefabricados que se sujetan sobre una estructura de acero. La construcción es tan resistente que podría soportar un terremoto de intensidad 9 (en el vídeo aparece un test en el minuto 1:49), con lo que quintuplica la resistencia a seismos de los edificios convencionales.

También se ha puesto especial interés en la eficiencia energética con un muro de cristal de 15 cms de grosor que proporciona aislamiento así como ventanas cuya construcción proporciona sombra a la fachada y un sistema de recuperación de calor y filtración del aire que lo purifica hasta convertirlo en 20 veces más limpio que el del exterior.

El anterior record de construcción ultraveloz lo tenía un edificio de 16 plantas que se levantó en sólo 6 días, como ya os contamos en Gizmodo hace un par de años.

Gusanos de seda de araña

Gusanos de seda de araña:

Consiguen gusanos de seda transgénicos que producen seda con proteínas de la seda de araña.

Foto

Muestras de la seda producida. Fuente: University of Notre Dame.

Desde hace años se viene especulando con la posibilidad de usar las magníficas propiedades de la seda de araña. Pero emplear a las propias arañas para este menester es absurdo por la poca cantidad de seda que producen, por su territorialidad y por su canibalismo. Esto hace que una granja de arañas no sea una buena idea. Por esta razón se ha pensado producir esta seda de otros modos.

Como la síntesis química se mostró esquiva, grupos de investigadores en el pasado pensaron que sería mejor usar algún sistema biológico. Una de las propuestas fue la creación de cabras transgénicas que produjeran leche con la proteína de la seda en ella. Al final consiguieron crear dichas cabras. Además se intentó con bacterias, insectos y plantas.

El problema es que para conseguir las maravillosas propiedades de la seda de araña no basta con tener una sustancia con su misma composición, sino que además debe estar estructurada adecuadamente. La seda, para ser resistente, tiene que proceder de una entrelazado o retorcimiento de varias fibras de proteínas.

Ahora el equipo de investigadores del laboratorio de Malcolm Fraser Jr. en la Universidad de Notre Dame publican sus resultados con gusanos de seda transgénicos, que en lugar de producir su propia seda natural producen una seda diseñada artificialmente. Este trabajo empezó hace ya 10 años y ahora empieza a dar sus frutos.

Al parecer la seda que han logrado obtener por este método es altamente resistente y elástica, siendo mejor que la seda natural de gusano de seda habitual. El gusano de seda transgénico obtenido produce seda que contiene tanto proteína de seda de gusano como proteína de seda de araña.

El estudio demuestra que es posible crear gusanos transgénicos que produzcan seda mejorada. La ventaja a la hora de usar gusanos, frente a por ejemplo cabras, es que el gusano ya retuerce las fibras de manera natural al producir la seda.

La idea es usar esta seda para suturas quirúrgicas, gasas, ligamentos artificiales, tendones, andamiaje para tejidos orgánicos (quizás incluso miembros artificiales), microcápsulas, cosméticos y textiles, además del típico uso tradicional en paracaídas.

En la actualidad se está evaluando el modelo de negocio sobre este gusano y así fabricar productos, tanto textiles como no textiles, basados en esta tecnología. Además se piensa mejorar esta primera generación de gusanos de seda para crear una segunda que produzca seda aún más fuerte y resistente.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3708

Fuentes y referencias:

Nota de prensa.

Artículo original.

OLPC XO 3.0: Un tablet de 8 pulgadas con Android o Sugar por 100 dólares

OLPC XO 3.0: Un tablet de 8 pulgadas con Android o Sugar por 100 dólares:

Filed under:

Los portátiles OLPC han sido un éxito muy grande entre sus pequeños usuarios alrededor del mundo, y mucho hemos hablado de su evolución, que ahora sabemos será anunciada durante el CES 2012. Como lees, un tablet con carcasa rugerizada, diseñado por Yves Behar, será mostrado durante la feria de Las Vegas. El XO 3.0 incluiría una pantalla de 8 pulgadas con resolución PixelQi 1.024 x 768, procesador Marvell Armada PXA618, 512 MB de RAM, y sistema operativo Android o Sugar, a escoger. Sugar es el sistema operativo propio de OLPC, y se basa en Linux. El tablet además incluiría un “open BIOS” que le permitiría ofrecer soporte para otros sistemas operativos en el futuro.

Al igual que los portátiles, el tablet OLPC no podrá ser adquirido directamente por usuarios, porque estará disponible directamente para estudiantes, por medio de acuerdos con países o instituciones. El precio por unidad sería de 100 dólares, aunque dan a entender que se venderían diferentes modelos, con uno más barato que no tendría pantalla PixelQi.

No dudamos que más detalles al respecto aparecerán en cualquier momento, y estaremos atentos para traértelos. Volveremos con fotos del aparato tan pronto abran las puertas de las exposiciones del CES.

[Actualización: Nueva fotografía.]

Permalink | Email this | Comments

Modificación de Wind River permite usar varias ventanas en Android

Modificación de Wind River permite usar varias ventanas en Android:

Filed under: ,

El desarrollo de módulos para Android no es algo nuevo, sin embargo Wind River nos asombra con una modificación que podría ser muy útil y verdaderamente profunda. La subsidiaria de Intel estaría trabajando en cambios para el sistema operativo móvil de Google que se basarían en tres categorías: médicos, de conexión y de experiencia de usuario. Los dos primeros añadirían soporte para el protocolo Bluetooth Health Device y DLNA, siendo la tercera la que permitiría usar varias ventanas, al igual que en un sistema operativo para ordenadores. Otros cambios incluirían un inicio más rápido y mejoras en la administración del firmware.

Al usar la modificación de Wind River, todas las ventanas se mantendrían en funcionamiento, y sería posible distribuirlas en diferentes niveles (una encima de otra, como en un ordenador). Este es un gran cambio para Android, que en su versión original sólo permite el uso de una aplicación (ventana) a la vez.

Por ahora no tenemos información sobre el funcionamiento de la modificación, que ciertamente necesitaría de rápidos procesadores y mucha memoria. Tampoco sabemos si funcionaría con Ice Cream Sandwich, pero por suerte han dicho que mostrarán su software durante el CES y estaremos atentos para contarte al respecto.

[Vía The Verge y Android Community]

Read | Permalink | Email this | Comments

Rusia también se apunta a GNU/Linux

Rusia también se apunta a GNU/Linux:

La semana pasada nos hacíamos eco de que con la llegada del año nuevo el proyecto LiNex tocaba a su fin, la distribución de Linux de la Comunidad Extremeña. Pues esta semana toca todo lo contrario.

“Nuestros camaradas” rusos han anunciado que gracias a un cambio en la política de adquisición de software desde Windows a Linux lograrán ahorrarse 55.300 millones de dólares para afianzar la industria informática nacional. ¿Ha tomado nota ya el gobierno andaluz?

A finales de 2010 un informe del Programa Estatal “Comunidad de la Información” denunció el derroche que suponía la utilización de software propietario en la Administración Pública y desarrolló un programa, que abarca de 2011 a 2020, mediante el cual eliminar dicho derroche.

El objetivo es desarrollar cuatro distribuciones diferentes de Linux para los distintos fines a los que se va a destinar, administración pública, educación, industria o seguridad. Dichas distribucines serán desarrolladas por la empresa PingWin Software y ya están bastante avanzadas.

Una decisión de este calibre a nivel internacional debe tener el mayor eco posible ya que con iniciativas de esta índole y la crisis que dicen que nos ahoga las cosas pintarían de otro color. [HispaLinux]

Termómetro USB de Brando, para los fanáticos de los registros

Termómetro USB de Brando, para los fanáticos de los registros:

Filed under:

Predicción meteorológica en el móvil, en la radio, en la tele… Hay algo en ti que desconfía de esos datos lejanos y prefiere apostar por un hardware más cercano y que puede controlar. A este segmento del mercado se dirige el último producto de la fértil factoría de Brando. No le des más vueltas: por muchos eufemismos que utilicemos, no es más que un termómetro por USB compuesto por varios sensores, tanto de interior como de exterior.

La lectura de los datos nos ha dejado un poco fríos: hay dos posibilidades, bien mediante un software proporcionado, o bien mediante una combinación de teclas que deja el dato en el portapapeles. Si hemos conseguido despertar tu curiosidad con este atípico producto, puedes hacerte con un ejemplar en Brando por 32 dólares (unos 25 euros al cambio).

Read | Permalink | Email this | Comments

Broadcom anuncia los primeros chips de gigabit inalámbrico 802.11ac

Broadcom anuncia los primeros chips de gigabit inalámbrico 802.11ac:

Filed under: ,

Durante mucho tiempo pensamos que nunca necesitaríamos algo más rápido que conexiones WiFi 802.11n, y no nos duele admitir que nos equivocamos. Estamos desesperados por tener conexiones inalámbricas más rápidas, y Broadcom dice tener una solución a nuestro problema. Acaban de anunciar una familia de chipsets 802.11ac, que funcionan en redes conocidas como “la quinta generación de WiFi” o “WiFi 5G”. Este tipo de redes son ideales para transmitir contenido HD, porque son hasta tres veces más rápidas que 802.11n y una seis veces más eficiente en lo que a consumo eléctrico se refiere.

La familia de chips WiFi 5G de Broadcom incluye los BCM4360, BCM4352, BCM43526 y BCM43516.

Tranquilo, no prepares la tarjeta de crédito, porque por ahora no se ha dicho nada sobre la disponibilidad para consumidores.

Permalink | Email this | Comments

Aakash (el tablet indio ultra económico) registra 1,4 millones de reservas en dos semanas

Aakash (el tablet indio ultra económico) registra 1,4 millones de reservas en dos semanas:

Filed under:

¿Aún no te has podido quitar de la cabeza al ya célebre tablet indio Aakash? No te preocupes porque no eres el único. Desde que se abriera oficialmente el coto de caza el pasado 14 de diciembre, el dispositivo ha cosechado una respuesta de lo más favorable: nada menos que 1,4 millones de reservas. Dicha cifra no nos sorprende lo más mínimo ahora que sabemos que finalmente la unidad se comercializa por unas 2.500 rupias (o lo que es lo mismo, entre 31 euros y 41 dólares), una cantidad que si bien dista ligeramente de la información con la que se dió a conocer, tampoco está nada mal. En caso de que la memoria flaquee, recuerda que por este precio no obtendrás una bestia andante capaz de obrar maravillas, pero sí un dispositivo que ejecuta Android 2.2 y que cuenta con dos puertos USB 2.0 y hasta 2 GB de almacenamiento interno, que asegura ser capaz de sacarte de un apuro cubriendo las necesidades más básicas.

Tal ha sido el éxito, que el juguete contará en marzo con una versión algo más vitaminada y tres nuevas fábricas se encargarán de producir en torno a 75.000 unidades mensuales para satisfacer a tanta demanda. La gracia del asunto es que si su precio ya nos parecía de lo más sorprendente, la cantidad podría acabar bajando hasta límites irrisorios, alcanzando, en palabras de DataWind unos inconcebibles 10 dólares.

[Vía Physorg]

Read | Permalink | Email this | Comments