Archivo mensual: junio 2013

Lo último en robótica: máquinas voladoras, androides de salvamento y un gato

Lo último en robótica: máquinas voladoras, androides de salvamento y un gato: La robótica no deja de avanzar. Y lo hace en múltiples direcciones: por un lado, están los robots “sensibles”, con sentido del tacto, gracias a una piel artificial. Por otro, los robots voladores, desarrollados para que construyan estructuras en emplazamientos inaccesibles; y el robot-gato, que se desplaza como los felinos. Además, en el CSIC se están desarrollando androides de salvamento, que en un futuro podrían colaborar con los humanos en labores de rescate. Por Yaiza Martínez.

Lo último en robótica: máquinas voladoras, androides de salvamento y un gato
L…
Tendencias 21 (Madrid). ISSN 2174-6850

Crean un traductor online tan avanzado que no comete errores

Crean un traductor online tan avanzado que no comete errores: La cooperación europea ha permitido el desarrollo de una herramienta fiable para garantizar la comunicación de los países miembros. El resultado es MOLTO, un sistema online que facilita traducciones fieles a la original incluso en campos profesionales específicos. La técnica es tan precisa que proporciona textos listos para su uso, sin peligro de que éstos contengan errores. Por Patricia Pérez.

Crean un traductor online tan avanzado que no comete errores
Los europeos son cada vez más conscientes de la importancia de la comunicación en otros idioma…
Tendencias 21 (Madrid). ISSN 2174-6850

Hallada una nueva zona de subducción cerca de la península Ibérica

Hallada una nueva zona de subducción cerca de la península Ibérica:
placa
Una nueva zona de subducción, formándose cerca de la costa del sur de Portugal, podría marcar el inicio de un ciclo que verá cerrarse el océano Atlántico con la unión de Europa y Norteamérica.
Recordemos que las zonas de subducción son áreas en las que una placa litosférica se hunde bajo otra capa en un límite convergente.
Publicada en Geology, la investigación liderada por un grupo de geólogos de la Universidad de Monash ha detectado la primera evidencia de que un margen pasivo en el océano Atlántico se está convirtiendo en activo.
El autor principal, Dr. João Duarte, de la Escuela de Geociencias dijo que el equipo cartografió el fondo oceánico y se encontró con que estaba empezando a romperse, lo que indica la actividad tectónica, aparentemente pasiva, en todo el margen suroeste de la placa Ibérica, hoy en día parte de la placa Euroasiática.

Lo que hemos detectado son los inicios de un margen activo, es como una zona de subducción embrionaria

Dijo el Dr. Duarte.

Una actividad sísmica significativa, incluyendo el terremoto de 1755 que devastó Lisboa, indica que puede haber movimiento tectónico convergente en la zona. Por primera vez, hemos sido capaces de proporcionar no sólo evidencias de que este es el caso, sino también un mecanismo de arrastre constante

La subducción incipiente en la zona ibérica podría señalar el comienzo de una nueva fase del ciclo de Wilson, donde los movimientos de placas separan supercontinentes como Pangea, abren los océanos, luego se estabilizan y, por último, forman nuevas zonas de subducción que cierran los océanos y van juntando de nuevo los continentes dispersos.
Esta ruptura y reformación de supercontinentes ha ocurrido al menos tres veces a lo largo de más de cuatro mil millones de años en la Tierra. Esta subducción atraerá gradualmente la península Ibérica hacia los Estados Unidos en aproximadamente 220 millones años.
Los resultados proporcionan una oportunidad única para observar como un margen pasivo se convierte en activo, un proceso que se tomará alrededor de 20 millones de años. Incluso en esta temprana fase, el sitio dará datos cruciales para refinar los modelos geodinámicos.

La comprensión de estos procesos sin duda proporcionará nuevos conocimientos sobre cómo las zonas de subducción se pueden haber iniciado en el pasado y cómo los océanos comienzan a cerrarse

Concluye el doctor Duarte.
Vía | Sciencedaily

AMD enseña los primeros detalles de su procesador para servidores basado en ARM

AMD enseña los primeros detalles de su procesador para servidores basado en ARM:
Filed under:

AMD enseña los primeros detalles de su procesador para servidores basado en ARM

A estas alturas no debería de sorprenderte demasiado descubrir que AMD tiene preparado un procesador basado en ARM, pero si ese es tu caso, llegas en el mejor momento, porque no ha sido hasta hoy cuando se han conocido los primeros detalles. Bajo el nombre de Seattle, estos procesadores para servidores tienen pensado llegar al mercado en el segundo semestre, funcionarán bajo la arquitectura Cortex-A57 de 64 bits y habrá versiones de 8 y 16 núcleos con un mínimo de 2 GHz. Según cuentan, el rendimiento ofrecido sería de 4 veces superior respecto al Opteron X, disfrutando además de un mejor rendimiento por vatio.

Aún así, aunque Seattle llegaría como la solución para luchar contra las opciones de Intel, AMD seguirá ofreciendo soluciones x86 con las que cubrir las necesidades de mayor potencial. Pero este lanzamiento sería perfecto si tuviera algún tipo de solución gráfica integrada, algo que esperaremos ansiosamente, ya que un ARM con Radeon HD suena muy tentador. ¿Lo veremos pronto?

Read | Permalink | Email this | Comments

Una filtración de Intel destapa la existencia de un chip Haswell-E de 8 núcleos para sobremesa que llegará a finales de 2014

Una filtración de Intel destapa la existencia de un chip Haswell-E de 8 núcleos para sobremesa que llegará a finales de 2014:
Filed under:

Intel filtra la existencia de un chip Haswell-E de 8 núcleos para sobremesa que llegará a finales de 2014

Intel es muy dada a filtrar su calendario de productos como una manera de mantener la tensión en el mercado, pero sobre todo para mantenernos al corriente sobre esta desbocada guerra por aportar cada vez más potencia a sus procesadores. Así, sabemos que el fabricante planea comercializar un chip de la familia Haswell que llegaría al mercado a finales de 2014. La gama ha sido bautizada como Haswell-E y contaría con 6 y 8 núcleos, con una caché L3 de hasta 20 MB. Por otro lado, hemos conocido que la firma lanzará la arquitectura Wellsburg con RAM DDR4 y el reloj marcando los 2,133 MHz.

De confirmarse finalmente todo esto como cierto, más vale que los que les vaya el overclocking se vayan haciendo con un buen stock de nitrógeno líquido

Read | Permalink | Email this | Comments

Científicos suizos crean un robot que corre como un… gato (vídeo)

Científicos suizos crean un robot que corre como un… gato (vídeo):
Filed under:

Científicos suizos crean un robot que corre como un... gato (vídeo)

En esto de los robots hemos visto un poco de todo, desde repugnantes cucarachas hasta perros gigantes, pero una de las obsesiones de la comunidad científica ha sido siempre estudiar el movimiento animal, y de paso, intentar imitarlo. Uno de los animales que más interés ha despertado en este sentido ha sido el gato, y en este sentido, un grupo de investigadores de la escuela politécnica de Lausana se ha propuesto emular los complejos y estilizados movimientos de este felino. Los científicos se han centrado en el diseño de las extremidades, y en especial se han esforzado por su estabilidad cuando se mueven por superficies accidentadas.

Como podrás apreciar en el vídeo que te hemos dejado más abajo, la criatura todavía está muy lejos de emular el natural gracejo de este animal, pero se agradece el esfuerzo y el asunto promete. Por otro lado, este equipo de investigadores cree que con este avance se podrá contribuir a crear robots que ayuden en misiones de rescate en un futuro. Te dejamos con el minino metálico tras el salto.
Continue reading Científicos suizos crean un robot que corre como un… gato (vídeo)

Permalink | Email this | Comments

Edward Snowden: El gobierno no podrá encubrir esto

Edward Snowden: El gobierno no podrá encubrir esto:
Edward Snowden, quien reveló el plan PRISM de vigilancia que mantiene la Agencia Nacional de Seguridad (NSA) con ayuda de compañías tecnológicas en EE.UU., respondió algunas preguntas de internautas comunes y corrientes en un evento organizado por The Guardian. En la conversación, Snowden aseguró que “el gobierno no podrá cubrir esto encarcelándome ni asesinándome. La verdad viene y no puede ser detenida”.
Snowden manifestó una vez más temores respecto a que Estados Unidos lo juzgue, asegurando que el gobierno “inmediata y predeciblemente destruyó cualquier posibilidad de un juicio justo en casa, declarándome abiertamente culpable de traición”. El joven de 29 años reiteró que su motivación para dar a conocer este programa confidencial era que las personas supieran “el tipo de cosas que el gobierno hace en su nombre, o que ‘el consentimiento de los gobernados’ es insignificante”.

Empresas

Lamentablemente, Snowden no entró en detalle respecto al funcionamiento de PRISM. Cuando se le consultó respecto a qué significaba el “acceso directo” a los datos de los usuarios, simplemente aseguró que “ya vienen” más detalles sobre cómo la NSA accede a los datos.
Prácticamente todas las empresas involucradas en PRISM han rechazado que el gobierno tenga “acceso directo” a sus servidores para retirar información, asegurando además jamás haber escuchado sobre el programa. Cómo funciona entonces el acceso que tiene la NSA se ha mantenido en el misterio.
Snowden afirmó que los comunicados enviados por las empresas rechazando PRISM “pasaron por varias revisiones, y se ha vuelto cada vez más claro que estaban engañando, incluyendo lenguaje idéntico y específico en todas las compañías. Como resultado de estas revelaciones y la influencia de estas empresas, finalmente estamos empezando a ver más transparencia y mejores detalles de estos programas por primera vez desde su creación”.

Seguridad

Según Snowden, si no quieres que lean tu correo es posible protegerlo al cifrarlo. “Los sistemas criptográficos fuertes bien implementados son una de las pocas cosas en las que puedes confiar. Lamentablemente, la seguridad en el punto final es tan terriblemente débil que la NSA puede encontrar frecuentemente formas de saltarla”, afirma.
El joven también se refirió al debate público que se ha generado desde que se revelaran las primeras informaciones. “Al principio estaba muy entusiasmado. Lamentablemente los medio masivos ahora parecen mucho más interesados en lo que dije cuando tenía 17 o cómo luce mi novia que, digamos, el mayor problema de vigilancia sin sospecha de la historia de la humanidad”, dice.
Link: Edward Snowden Q and A: NSA whistleblower answers your questions (The Guardian)

Sharp lanza en Europa el televisor LED más grande del mundo por 14.999 euros

Sharp lanza en Europa el televisor LED más grande del mundo por 14.999 euros:
Filed under: , ,

Sabemos que Microsoft quiere mejorar la experiencia visual con un conjunto de elementos que ayuden a aumentar las dimensiones de la pantalla sin desembolsar demasiado dinero, pero parece que todavía hay fabricantes que confían en los gustos por las grandes pulgadas. Es el caso de Sharp, que acaba de anunciar la llegada al mercado europeo de su nuevo AQUOS LC-90LE757, un televisor LED de 90 pulgadas que se coloca como el modelo más grande del mundo.

Este gigantesco modelo se presenta con un procesador de doble núcleo encargado de dar vida al sistema Smart TV con navegador integrado, cuenta con el clásico panel Quattron de la marca, WiFi integrado, triple sintonizador HD (DVB-T/DVB-C/DVB-S2) refresco de 200 Hz, dos altavoces de 10 W con subwoofer de 15 W integrado e incluye además dos aplicaciones de control remoto para iOS y Android. El grosor máximo de esta pantalla es de 12 centímetros, pesa 62 kilos sin soporte y llegará a las tiendas en el mes de julio con un precio de 14.999 euros.
Continue reading Sharp lanza en Europa el televisor LED más grande del mundo por 14.999 euros

Permalink | Email this | Comments

Huawei Ascend P6 se hace por fin oficial: 4,7 pulgadas y corazón quad-core en un esbelto cuerpo de 6,18 mm [Actualizada]

Huawei Ascend P6 se hace por fin oficial: 4,7 pulgadas y corazón quad-core en un esbelto cuerpo de 6,18 mm [Actualizada]:
Filed under:

huawei ascend p6 portada

A estas alturas de la película la verdadera noticia hubiera sido que Huawei no lo hubiese presentado. Sí, hablamos del rumoreado y esperado terminal Ascend P6, un smartphone que por fin hoy ha visto la luz en la rueda de prensa que la firma china está celebrando en Londres. Tal y como apuntaba la última filtración, este equipo con soporte HSPA+ cuenta con una pantalla LCD de 4,7 pulgadas con una resolución de 1.280 x 720 píxeles, procesador quad-core K3V2 a 1,5 GHz y 2 GB de RAM. Dispone de 8 GB de almacenamiento interno (con posibilidad de ampliación mediante tarjetas microSD de hasta 32 GB), viene con una cámara frontal de 5 megapíxeles que hará las delicias de los amantes de las auto-fotos, e integra en su parte trasera un sensor BSI de 8 megapíxeles (f/2.0) con macro de 4 cm.

A la hora de hablar de su esbelta silueta, los rumores también estaban en lo cierto: el Ascend P6 presume de un grosor de solo 6,18 mm, convirtiéndose en el teléfono más delgado del momento -aunque no el más ligero, debido a sus 120 gramos de peso. En este famélico cuerpo hay espacio también (obviamente) para su batería, un pelín más corta de lo esperado, eso sí, con 2.000 mAh. En cuanto al sistema operativo, este smartphone, con sonido Dolby Digital Plus, disfruta de Android 4.2.2, adornado con la interfaz de la casa, Emotion UI.

Continue reading Huawei Ascend P6 se hace por fin oficial: 4,7 pulgadas y corazón quad-core en un esbelto cuerpo de 6,18 mm [Actualizada]

Permalink | Email this | Comments

Todo lo que debes saber sobre las unidades de estado sólido (SSD)

Todo lo que debes saber sobre las unidades de estado sólido (SSD):
Reiteradamente tocamos este tema y creemos que es momento de explicarlo como corresponde. Hablamos de las unidades de estado sólido, también conocidas como SSD por las siglas en inglés Solid State Drive, dispositivos que ahora se encuentran de manera común y silvestre en toda clase de computadoras y han entrado en reemplazo a los discos duros.
¿Pero qué son? ¿Cuál es su diferencia con los discos duros? ¿Cuáles son sus ventajas y desventajas? ¿Por qué todos los fabricantes de PC ahora las usan? De la forma más directa posible intentaremos responder éstas y otras preguntas, develando todo lo que necesitas saber sobre los SSD y sus aparentes misterios…

SSD versus disco duro


Durante años, la solución para el almacenamiento masivo de datos en una computadora ha sido un disco duro. Éste guarda los archivos del sistema operativo instalado, la música, los videos, etcétera, dependiendo de platos giratorios que mantienen la información y son leidos por un cabezal muy al estilo tornamesa.
Pero los SSD funcionan diferente. Asimilándose a una memoria RAM, estas nuevas unidades de almacenamiento intercambian el disco giratorio por pequeños chips de memoria flash para entregar capacidad, siendo innecesario un cabezal para leer datos ya que todo se hace electrónicamente mediante una controladora.
Esto le permite al SSD no tener partes móviles, es decir, no poseer piezas que se están moviendo físicamente como un disco que gira junto a un cabezal que busca sectores, permitiendo que la nueva tecnología sea de menor tamaño físico y presente una serie de otras ventajas que la colocan por sobre el disco duro tradicional.

Ventajas del SSD


Al estar conformado por memorias flash que son semiconductores de estado sólido, veremos algunas ventajas que podemos ilustrar de la siguiente forma: imaginen la competencia entre un lector de CDs y un pendrive o memoria flash extraíble. Acá es lo mismo, pues se cambia el modelo de almacenamiento desde discos que giran a chips sólidos electrónicos.
Por eso, la ventaja más evidente es la resistencia a golpes y maltratos, ya que al no haber partes móviles, la unidad es menos delicada. Por mucho tiempo vimos en los discos duros sistemas de protección de caídas, las que frenaban al disco duro si es que venía una caída fuerte. Ahora eso ya no es necesario, pues al igual que un pendrive, por dentro no hay nada que se mueva y pueda ser dañado.
Pero la ventaja más importante viene por el lado del rendimiento. Los discos duros son tecnología vieja, tal como un CD lo es a un pendrive, ya que los chips de memoria facultan al computador para acceder de manera más veloz a la información, lo que se hace a la velocidad que permiten los semiconductores y la controladora. En cambio, en un disco duro el plato giraba y el cabezal tenía que ubicar el archivo físicamente, demorando la tarea.

Así, vemos que un disco duro moderno alcanza velocidades de escritura y lectura de datos cercanas a los 100MB/seg, en un disco que gira a 5400RPM o 7200RPM. Por otro lado, un SSD promedio alcanza fácilmente los 500MB/seg. Esto afecta directamente al usuario, ya que a mayor velocidad de los datos en un PC, más rápido se cargan los programas y se inicia el sistema operativo.
Los tiempos de acceso también mejoran en un SSD respecto a un disco duro. Porque al depender únicamente de la velocidad del semiconductor, un SSD demora cerca de 0,08ms en encontrar la información que busca y comenzar la transferencia, mientras que el tiempo promedio en que un disco duro tarda en hacer lo mismo es de 12ms. Así, otra ventaja de los SSD es su reducido tiempo de respuesta para llevar a cabo órdenes.
Con un SSD también disfrutamos de un menor ruido, ya que no hay cabezal leyendo y escribiendo datos en un plato, al mismo tiempo que la ausencia de dicha labor y los motores asociados disminuye el consumo energético del dispositivo, mientras que se reduce la temperatura a la que funciona y se eliminan las vibraciones.

Desventajas de un SSD 


Suena todo maravilloso con una unidad de estado sólido, ¿pero hay desventajas? Como pasa en la vida, las cosas buenas cuestan caro, por lo que asoma como principal desventaja de los SSD su elevado precio en relación a los discos duros tradicionales. 500GB de capacidad en un SSD actualmente cuestan entre USD$400 y USD$500 en Estados Unidos, mientras que un disco duro de igual capacidad se encuentra por USD$60. Y eso que las memorias bajaron considerablemente de precio en los últimos meses.
Es por eso que en general las computadoras pre-ensambladas (como notebooks) que traen SSD también vienen con poca capacidad de almacenamiento, siendo posible encontrar equipos económicos con 500GB en disco duro, así como equipos costosos con 128GB pero de SSD, por lo que el tema del espacio debe ser considerado si se opta por utilizar una unidad de estado sólido.
Por otro lado, cuando comenzaron a ser comercializados estos productos eran asociados a otros problemas que hoy ya están en el pasado. Primero, la degradación de los chips de memoria reducía el rendimiento de las unidades después de mucho tiempo de uso. Apareció entonces la tecnología TRIM que al ser integrada en el producto, mejoró esta situación y permitió que dicho problema hoy quede en el olvido.

Tipos de SSD


Hay varias formas de clasificar las unidades de estado sólido. Primero, haremos la diferenciación en relación al modo en que se conectan a la computadora, existiendo dos clases de puertos principales por los que podemos hacer la conexión entre estos dispositivos y la placa madre del PC:

  • SATA: Es el puerto más común por el que hoy también se conectan los discos duros. En su versión para PC de escritorio, consta de un delgado cable que va de la unidad a la placa madre. Existe además mSATA, que sólo otorga el puerto para conectar directamente, sirviendo para notebooks y portátiles.
  • PCI Express: Utilizado comúnmente por las tarjetas de video en una computadora de escritorio, este puerto es de alta velocidad para modelos de rendimiento profesional que rondan los 1000MB/seg o 2000MB/seg, siendo grandes tarjetas (en la foto) que abren una nueva categoría de SSD para usuarios exigentes y que poseen mucho dinero, ya que son costosas. PD: Samsung está comenzando a fabricar pequeños SSD PCI Express para notebooks en forma masiva, así que ojo.

Por otro lado, podemos diferenciar los SSD según el tipo de memoria utilizado:

  • Memoria NAND Flash: Las de uso más común, son un chip de silicio que también se utiliza en pendrives y posee una memoria no volátil, es decir, incluso cuando no posee energía es capaz de guardar los datos que tiene grabados.
  • Memoria DRAM: Más costosos y menos comunes, los módulos de memoria DRAM son los mismos que se utilizan en las memorias RAM, permitiendo una mayor velocidad y tiempos de respuesta menores. Son poco adecuados para SSD de uso cotidiano ya que requieren de electricidad continua para “recordar” los datos que tienen grabados, sin embargo, ofrecen un rendimiento excepcional.

Finalmente, haremos la distinción entre los tipos de tecnologías que son utilizadas para conformar las memorias flash NAND, existiendo tres categorías:

  • Single Level Cell (SLC): Cuando se obtiene una oblea de silicio y se corta para obtener un único chip de memoria, nacen las unidades SLC. Al ser simples, son las más rápidas y de menor consumo energético, aunque son las más costosas de fabricar de todas. Se pueden escribir sólo en dos estados (bloque vacío o bloque lleno) y de ahí vienen sus propiedades positivas.
  • Multi-Level Cell (MLC): Cuando se apilan varias capas de una oblea de silicio, obtenemos un chips de memoria flash NAND. Es de la uso más común porque son más densas y se consigue mayor capacidad en el mismo espacio, significando además un precio más reducido (tres veces más económico que SLC). Sin embargo, los chips son más lentos y menos longevos que los SLC. Se escriben en cuatro estados (en la imagen).
  • Triple Level Cell (TLC): Los más económicos de todos: valen un 30% menos que los MLC. Son de gran densidad y por ende, se puede obtener gran capacidad de almacenamiento digital en poco espacio físico y se escriben en ocho estados, viniendo de allí su economía. Pero son más lentos que los MLC y tienen un tiempo de vida menor, ya que permiten sólo entre 1.000 y 5.000 ciclos de escritura y lectura hasta quedar inservibles (SLC: 100.000 ciclos, MLC: 10.000 ciclos).

Un poco de historia de los SSD…


Aunque sea difícil de creer, el primer dispositivo que puede ser considerado como una unidad de estado sólido fue el modelo Bulk Core de la empresa Dataram, estrenado en el mercado el año 1976. Contenía ocho módulos de memoria con capacidad de 256KB cada uno, entregando 2MB de almacenamiento total en un chasis de 50 centímetros de ancho. Costaba cerca de USD$10.000 en la época, lo que hoy en día podrían ser USD$40.000 si consideramos la inflación económica. Y es que consistía en módulos de memoria RAM más que chips particularmente hechos para SSDs, como los MLC o SLC actuales que claramente en ese entonces no existían, por lo que era necesario apilar memorias RAM para lograr el mismo objetivo.
De ahí en adelante los productos que existieron mantuvieron la esencia de ser “discos de memoria RAM”, tal como el primogénito, costando una cantidad brutal de dinero para ser adquiridos. Eso hasta el año 1988, cuando el fabricante Digipro creó las primeras memorias flash para almacenamiento masivo. Llamados NOR flash, estos chips permitían módulos de hasta 16MB de capacidad por USD$5.000.
Durante toda la década de los 90 el rubro continuó desarrollándose principalmente en el área de los servidores profesionales, hasta que en 2003 la empresa Transcend estrenó un modelo que se conectaba a PCs del mercado general a través de un puerto Parallel ATA IDE, siendo el de uso más común en la época. El modelo más amplio era de 512MB y utilizaba memorias flash, por lo que podría decirse fue el primer producto que honestamente buscó masificarse.
De ahí en más vendría la llegada en masa de los SSD: desde 2006 en adelante Samsung, Sandisk, Intel y varios otros fabricantes se especializaron en esta clase de productos, desarrollándose las tecnologías SLC, MLC, TRIM y varias más de las vistas hoy. Podría decirse que el desarrollo fue rápido, ya que en menos de siete años pasamos de tener costosos módulos de 32GB hasta económicos 250GB, integrándose de forma masiva en varios modelos de notebooks y ofreciéndose además por un bajo precio en unidades independientes para actualizar toda clase de PCs.
Así, sin duda hoy vivimos la mejor época de los SSD, ya que el precio de las memorias flash ha bajado considerablemente durante los últimos meses y eso ha permitido romper la barrera psicológica de “un GB por dólar”, encontrándose modelos que incluso llegan a costos menores. La época dorada de esta tecnología, podría decirse, está recién comenzando.

Exploración al fondo del mar para buscar nuevos antibióticos

Exploración al fondo del mar para buscar nuevos antibióticos: Una expedición científica financiada por la UE, denominada Pharma-Sea, explorará durante cuatro años los lugares más profundos, fríos y cálidos del planeta, en busca de bacterias y otros organismos desconocidos hasta ahora. El objetivo es descubrir nuevos antibióticos producidos por dichas bacterias, utilizarlos como alimentos o con fines cosméticos.

Exploración al fondo del mar para buscar nuevos antibióticos
Una expedición científica europea, denominada Pharma-Sea, ha puesto en marcha un proyecto ambicioso d…
Tendencias 21 (Madrid). ISSN 2174-6850

Celebración del 50 aniversario de la primera mujer en el espacio

Celebración del 50 aniversario de la primera mujer en el espacio:
valentina
Rusia celebra el 50 aniversario del vuelo de la primera mujer en el espacio, una heroína soviética apodada con el nombre de “Chaika“ (gaviota en castellano) y objeto de fascinación de niñas de todo el mundo.
Valentina Tereshkova, ahora diputada de la Duma Estatal Rusa, despegó en la nave espacial Vostok-6 en el año 1963, dos años después del histórico primer vuelo tripulado de Yuri Gagarin.
A los 76 años de edad, sigue siendo la única mujer que haya hecho un vuelo a solas en el espacio.
La televisión estatal celebró con la emisión de documentales sobre la vida de Tereshkova, mientras que la ex cosmonauta pasaba el día de conmemoración en un nuevo Museo del Espacio en su región natal, Yaroslavl.
En Abril de 1962, las autoridades soviéticas redujeron inicialmente la lista a cinco posibles candidatos para que compitieran contra Estados Unidos por la supremacía del espacio durante la Guerra Fría.
Finalmente su elección cayó en la trabajadora del textil Tereshkova, hija de una familia de campesinos, líder de la Juventud Comunista (Komsomol) y que además había realizado 90 saltos en paracaídas.
A Tereshkova no se le permitió mantener el contacto con ningún miembro de su familia. Ellos sólo se enterarían de sus hazañas cuando Moscú lo anunciara a todo el mundo.
Rodeó la Tierra 48 veces durante su misión de tres días.
Aunque las aventuras de Tereshkova no terminaron en el espacio, ya que, en enero del 69, estaba presente cuando un individuo abría fuego contra el coche que se pensaba que transportaba al líder soviético Leonid Brezhnev. Realmente, en el coche viajaba Tereshkova junto a otros tres compañeros cosmonautas que iban a un evento al Kremlin.
Más de 40 mujeres han ido al espacio desde Tereshkova, pero sólo otras dos mujeres rusas la han seguido, Svetlana Savitskaya en 1984 y Yelena Kondakova en 1994 y 1997. De hecho, Yelena Serova viajará a la Estación Espacial Internacional en septiembre de 2014.
Vía | ABC

LiveMap, una empresa rusa que prepara el casco del futuro (vídeo)

LiveMap, una empresa rusa que prepara el casco del futuro (vídeo):
Filed under: ,

LiveMap, una empresa rusa que prepara el casco del futuro

Si creías que el futuro de los ordenadores ‘de llevar’ terminaba en las Google Glass, atento al próximo movimiento de una firma rusa llamada LiveMap. Esta empresa se ha propuesto trasladar esa filosofía al entorno motero, y qué mejor para ello que emplear un complemento tan necesario (y obligatorio) como el casco. La idea es clara: conseguir que el motorista no necesite emplear las manos para disfrutar del navegador (hasta ahora, una peligrosa maniobra para los amantes de las dos ruedas). Como te apuntábamos, este proyecto parte parcialmente de los mismos principios que las gafas de Google: proyectar las imágenes en la pantalla y conseguir de esta manera una especie de realidad aumentada.

El conjunto contará con también con un micrófono para poder recibir instrucciones de voz mientras se conduce y así no es necesario quitar las manos del manillar. El equipo contará con un sensor de luz para calibrar la iluminación de la pantalla, batería e incluso un giroscopio. El responsable del futuro no ha dudarlo en describirlo como “el casco de Iron Man”. Si nada se tuerce, este ambicioso proyecto se materializará en el mercado el año que viene en una fecha todavía no concretada, eso si la campaña de crowdfunding iniciada resulta exitosa. Te dejamos con un vídeo tras el salto.
Continue reading LiveMap, una empresa rusa que prepara el casco del futuro (vídeo)

Read | Permalink | Email this | Comments

Project Loon: Google quiere dar acceso a internet con globos

Project Loon: Google quiere dar acceso a internet con globos:
Aunque se había rumoreado algo sobre este proyecto, Google ha hecho oficial uno de sus nuevos y locos proyectos relacionados con su laboratorio de ideas Google {x}, Project Loon, un esfuerzo de Google para dar conexión a internet a zonas donde es muy difícil que llegue una conexión estable o porque están en zonas muy remotas del planeta. Pero lo interesante del proyecto es la forma en lo que lo van a conseguir.
Google siempre ha sido una empresa a la que le gusta experimentar, de ahí llegó esta misteriosa Google X, de donde han salido productos como los coches que se conducen solos o las mismas Google Glass. Proyectos que normalmente poco tienen que ver con una empresa que se dedica a ofrecer servicios de internet, pero que siempre tienen algo que los relacionan.
Project Loon quiere crear una red de conexión satélite, pero que en vez de satélites use globos en la estratosfera, a unos 20 kilómetros de altura y lejos de la actividad de las nubes, tormentas o incluso aviones. La idea principal no es la de lanzar un globo en una zona donde se necesita conexión a internet, ya que las corrientes que hay a esta altura van a estar moviendo continuamente estos globos. En cambio, lo que Google quiere hacer con este proyecto es crear una red de globos que permitan a una zona concreta de la tierra, conectarse a internet sin tener que depende de un solo globo, así cuando un globo sale del área de cobertura, otro entra para poder seguir dando conexión.

Google usará esta red de globos, personalizados y que tan solo son capaces de escuchar las señales particulares de esta conexión para evitar que otras frecuencias interrumpen, como una verdadera red tradicional, en la que los globos aparta de conectarse a las antenas locales, se interconectarán unos a otros para que puedan conectarse a un punto concreto, algunas antenas repartidas por el globo que son las que les dan el acceso a internet.
Google ha lanzado una prueba piloto esta semana en el área de Canterbury, Nueva Zelanda. Durante esta semana se han lanzado treinta globos, el número máximo de globos lanzados hasta ahora en sus pruebas para que empiecen a dar vueltas a tierra y en el que algunos usuarios de esta zona de Nueva Zelanda intentarán usar esta red tan especial para conectase a internet.
Muchas preguntas quedan en el aire, sobre todo la velocidad de conexión y la operabilidad que puede tener en áreas rurales alejadas, o por ejemplo los precios que pueden tener este tipo de conexiones para zonas pobres.
Entendemos que este es un proyecto para crear una conectividad a zonas donde no existe, no para que aldeas o pueblos puedan tener todos conexión a internet, si no para que se pueda repartir entre vecinos usando Wi-Fi, por ejemplo. Google explica en otro de sus vídeos que se puede usar para que granjeros tengan mejor información del tiempo y sus cultivos sean mejores, para dar mejor acceso a la información y a la educación a niños y no se tengan que desplazar kilómetros al colegio más cercano. Incuso al acceso de un médico a miles de kilómetros de distancia.
Click aqui para ver el video.
Link: Introducing Project Loon: Balloon-powered Internet access (Google)

Descubren milenaria ciudad perdida en Camboya utilizando tecnología láser

Descubren milenaria ciudad perdida en Camboya utilizando tecnología láser:
La tecnología LIDAR (‘Laser Imaging Detection and Ranging’) consiste en determinar distancias utilizando pulsos de luz láser de una forma similar al radar, determinando la distancia a un objeto o superficie midiendo el tiempo de retraso entre el pulso inicial y su reflejo.
Con esta tecnología montada en aviones que recorrían zonas inexploradas de Camboya para poder observar el terreno bajo el follaje de la selva, un equipo de arqueólogos logró encontrar una ciudad perdida por más de un milenio en la mitad de la jungla camboyana llamada Mahendraparvata.
Uno de los miembros del equipo, Damian Evans de la Universidad de Sydney, relató su experiencia revelando que “con estos instrumentos, ¡bang! Súbitamente vimos la imagen de una ciudad que nadie sabía que existía, lo que es notable“.
Lo interesante de Mahendraparvata es que sería la ciudad más vieja de Camboya, antecediendo por unos cuantos siglos a la legendaria y hermosa Angkor, lugar del Angkor Wat, el monumento religioso más grande del mundo, por lo que en base al hecho que solo han revelado una pequeña porción de la ciudad, quien sabe que podrán encontrar ahora los arqueólogos, en especial si usan LIDAR en otros lugares poco explorados.


(C) Nick Moir / nickmoirphoto.com

Link: Airborne Laser Scans Just Uncovered a City Lost for a Millenium (Gizmodo)

Crean obleas de silicio cristalino en mil hojas, más baratas y flexibles

Crean obleas de silicio cristalino en mil hojas, más baratas y flexibles: Las obleas cristalinas de silicio delgadas (del orden de 10 micras) son muy caras de obtener y resultan cruciales para la integración en 3D de microchips y para la próxima generación de células solares. Ahora, investigadores de la Universidad Politécnica de Cataluña han descubierto una técnica para producirlas en mil hojas, más económicas y flexibles.

Crean obleas de silicio cristalino en mil hojas, más baratas y flexibles
Un equipo de investigadores del Centro de Investigación en Nanoingeniería (CRnE) y del Departamento de Ingeniería Electrónica de la Universidad Politécnica de Catalunya – BarcelonaTech (UPC) han encontrado la manera de fabricar obleas de silicio cristalino delgadas de una manera más económica y rápida. Los resultados de esta investigación se han publicado recientemente en la versión on line de la revista científica de referencia Applied Physics Letters.

Las obleas de cristal de silicio delgadas —del orden de 10 µm (micras, una millonésima parte de un metro) — son muy caras y buscadas en el ámbito de l…

Tendencias 21 (Madrid). ISSN 2174-6850

Habrá 11.000 millones de humanos en 2100

Habrá 11.000 millones de humanos en 2100:
Se estima que hacia finales de siglo habrá unos 11.000 millones de seres humanos sobre la Tierra, 800 millones más de lo calculado anteriormente.

Foto
Crecimiento o reducción de población según países (Ampliar).

No podemos predecir el futuro. Sólo en las condiciones controladas de laboratorio y para sistemas sencillos se puede hacer. Otras veces podemos estudiar sistemas muy regulares y estudiar, por ejemplo, las órbitas de los planetas y saber en dónde estarán el 17 de marzo de 2029. Pero para otros sistemas las cosas no son sencillas. Es imposible para el tiempo meteorológico, para las cotizaciones de las acciones de bolsa o para aquellos aspectos que dependan mucho de la psicología y sociología humanas.

Saber qué es lo que pasará con el ser humano en el año 2100 puede ser una empresa un tanto arriesgada, incluso si sólo queremos saber cuantos humanos habrá en el planeta para entonces. Pues todo depende de lo que hagamos desde ahora hasta tal fecha.

Sin embargo un nuevo estudio pronostica que para finales de siglo habrá 11.000 millones de seres humanos sobre la Tierra. Este nuevo estudio, basado en datos de las Naciones Unidas, pronostica 800 millones más de habitantes que en la anterior proyección realizada en 2011. Esto supone un número que es un 8% mayor. Para 2050 se espera que haya unos 9600 habitantes.

Este aumento se debería a la fertilidad en África, en donde las Naciones Unidas habían esperado un declive más rápido en la tasa de nacimientos de lo que en realidad se da.

Este declive de la fertilidad en ese continente ha estado haciéndose más lento o incluso se ha estancado respecto a lo que se había predicho y como resultado la población seguirá creciendo.

La población africana actual es de 1100 millones de habitantes y se espera que alcance los 4200 millones en 2100. Es decir, según este estudio prácticamente se cuadriplicará.

Para estas estimaciones se usó un método estadístico desarrollado en el Centro para la Estadística y Ciencias Sociales de la Universidad de Washington. El grupo de investigadores mejoró los métodos de la predicción de la fertilidad y los combinó con datos actualizados recolectados por las Naciones Unidas (NU). Esto les permitió proyectar las consecuencias a largo plazo de los cambios en la fertilidad en África desde que se realizó la última estimación de hace 2 años.

Además, en este estudio se tuvo en cuenta nuevos ajustes en la estadística, como la esperanza de vida de hombres y mujeres a lo largo del presente siglo.

Según este estudio, en otras regiones del globo se producen pequeños cambios en la población respecto a la anterior proyección. En Europa se producirá un pequeño declive en la población debido a que la fertilidad continuará por debajo del umbral de renovación. En otras regiones se verán incrementos modestos debido a la mejora de la esperanza de vida.

Según los autores no se vislumbra un fin al aumento de la población mundial, entre otras cosas porque el asunto se ha caído de la agenda de las autoridades en favor de otros problemas globales, incluyendo la pobreza y el cambio climático, aunque ambos estén ligados a la población.

Según Adrian Raftery, estos hallazgos muestran la necesidad de renovar las políticas sobre el asunto, como la mejora en los medios de planificación familiar y la expansión de la educación en las niñas.

Las NU proporcionan variaciones o cotas en sus proyecciones asumiendo que las mujeres tienen una promedio de medio niño por encima y por debajo de la mejor predicción. Esto proporciona cierta indeterminación que va de los 7000 millones a los 17.000 millones de habitantes en el mundo para finales del presente siglo.

Por el contrario, en este estudio de la Universidad de Washington se ha acotado mejor el margen de error y se pronostica una población situada entre los 9000 millones y los 13.000 millones.

No parece que en este estudio o en otros similares se hayan tenido en cuenta las limitaciones en los recursos, como la cantidad de tierra fértil, acceso a la energía, impacto del colapso ecológico y climático, etc.

Según se ha mencionado muchas veces, algunos de los problemas más graves a los que nos enfrentamos se deben a la incapacidad de muchos para entender el crecimiento exponencial, sea para el cálculo de poblaciones o para el cálculo del interés compuesto de sus hipotecas. Para ilustrar el crecimiento exponencial y sus consecuencias nada mejor que la historia real de la isla Saint Matthew

Un destacamento militar tenía que instalar una estación de radio en 1944 en la pequeña y desierta isla de Saint Matthew, cerca de Alaska. Entre las provisiones había 29 renos vivos que servirían de comida en caso necesario (los animales vivos se conservan mejor que los muertos, aunque éstos estén muy bien refrigerados). La guerra terminó antes de lo esperado, los hombres se marcharon y dejaron en la isla a esos renos que, por cierto, no tenían depredadores.

Se visitó la isla 13 años más tarde y se comprobó que la colonia de renos había pasado de los 29 originales a 1350 ejemplares. Otros 6 años más tarde, en 1963, la población de renos había pasado de los 1350 renos anteriores a 6.000 ejemplares. Pero en tan solo 3 años la población de 6.000 renos se había reducido a 42 ejemplares, de los cuáles sólo quedaba un macho que además era estéril. El desmesurado y exponencial crecimiento de la población de renos acabó con los recursos de la isla, hasta que en un invierno de escasez la próspera comunidad de renos colapso. En 1980 murió el último ejemplar.

Crecieron y se multiplicaron, y quizás se pueda decir que tuvieron sus momentos de esplendor, pero finalmente desaparecieron bruscamente. Lo mismo se puede decir de los habitantes de la isla de Pascua, de la civilización maya clásica, de los anasazi… O del planeta Tierra en la actualidad. Un crecimiento exponencial (o incluso lineal) de la población no se puede mantener por siempre en un planeta finito. Un comportamiento similar se da en las burbujas económicas que terminan siempre por estallar.

Aunque la capacidad del ser humano de creer en algo que esté en contra de la lógica, la realidad o la ciencia es ilimitada.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4136
Fuentes y referencias:

Nota de prensa.

NU.

Nuevo récord fotovoltaico

Nuevo récord fotovoltaico:
Una nueva plusmarca en rendimiento fotovoltaico sitúa a este e un 44,4% en solar por concentración.

Foto

Las células fotovoltaicas están creadas por materiales semiconductores. Estos presentan lo que se llama una zanja de energía, que es específica para cada semiconductor. La alteración de esta zanja de energía es muy difícil, pero condiciona los fotones que serán absorbidos y convertidos en corriente eléctrica. Ciertos fotones con una frecuencia (que es proporcional a su energía) por encima y por debajo del valor de dicha zanja son malgastados.

Una idea es conseguir una célula solar formada por varias capas de distintos semiconductores, cada uno especializado en una franja de frecuencias de luz, que absorba y convierta en energía el mayor número de fotones. Pero esto no es fácil.

Para crear estas células se apilan distintas capas semiconductoras. Cada capa tiene que mantener una propia estructura cristalina para se efectiva y cada una puede tener su propio parámetro de red (lo que mide una celda unidad de esa estructura cristalina). Pero cada una se asienta sobre otra que puede tener un parámetro de red distinto. Si es muy distinto simplemente no se puede hacer crecer un cristal sobre el otro. Por tanto los semiconductores usados tienen que se parecidos estructuralmente, pero se tienen que comportar de distinta manera.

Todo esto hace que el proceso de fabricación sea muy complejo y, por tanto, costoso. Pretender cubrir los tejados con este tipo de células es absurdo porque nunca se amortizaría. Pero sí se han venido usando para satélites de comunicaciones.

En tierra, sin embargo, sí es concebible el uso de concentradores, como lentes o espejos, que enfoquen la luz solar sobre estas pequeñas y caras células. Además, algunas alcanzan un mayor rendimiento de este modo. Incluso se podría usar agua para refrigerar en dispositivo y obtener así agua caliente.

Se viene investigando en este campo y produciendo células multicapas desde hace décadas. Cda año se producen mejoras. El último logro nos viene de la empresa japonesa Sharp, que ha logrado una nueva marca mundial al respecto.

Foto

Con una célula multicapa de triple unión han conseguido un rendimiento del 44,4% con luz concentrada (ver ilustración). El logro ha sido confirmado por el Instituto Fraunhofer para la Energía Solar en Alemania y se ha conseguido gracias a mejoras en las conexiones de los electrodos y con una concentración uniforme de la luz sobre la célula, que está hecha de arseniuro de indio y galio.

Quizás parezca un logro no muy importante, pero un 44,4% de rendimiento es mucho más que el que consigue un motor de explosión interna y es un logro que hasta hace unos años se creía que era casi imposible. No es extraño que en futuro se mejore este rendimiento, aunque el rendimiento final comercial será siempre inferior. No es lo mismo desarrollar una célula para batir un record que comercializarla.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4135
Fuentes y referencias:

Nota de prensa.

Broadcom anuncia un nuevo procesador de cuatro núcleos para terminales Android de bajo coste

Broadcom anuncia un nuevo procesador de cuatro núcleos para terminales Android de bajo coste:
Filed under:

Broadcom anuncia un nuevo procesador de cuatro núcleos para terminales Android de bajo coste

Poco a poco vamos viendo como los chips de cuatro núcleos van convirtiéndose en una tónica cada vez más habitual por estos lares, un tren que Broadcom no parece estar dispuesta a perder. La compañía acaba de presentar un nuevo procesador de cuatro núcleos basado en la arquitectura A7 que responde al nombre de BCM23550 y entre sus principales atractivos no sólo es capaz de latir a 1,2 GHz, sino que además soporta velocidades de transferencia HSPA+ con hasta 21 Mbps en bajada y 5 Mbps en subida, está optimizado para equipos con Android 4.2 y, para terminar de redondear la jugada, se colocará en el segmento económico.

Las bazas de nuestro protagonista no acaban ahí, ya que es compatible con voz en alta definición, cámaras de 12 megapíxeles con vídeo a 1080p y H.264, así como la selección habitual de conectividades: NFC, Bluetooth, WiFi 5G, RFID y GPS. El broche final lo pone que resulta compatible también con el chip BCM21664T de doble núcleo de la casa, lo que significa que los fabricantes que ya hayan hecho sus pinitos con este chipset pueden estar tranquilos de que con la nueva generación todo irá como la seda, reduciendo el tiempo de pruebas al que tendrán que ser sometidos los terminales que lo monten.

¿Preparado para una nueva hornada de terminales asequibles, pero con más músculo que nunca? Pues no desesperes porque Broadcom indica que llegarán a producción durante el tercer trimestre del año.

Permalink | Email this | Comments

Sony descubre la PlayStation 4 durante su conferencia del E3

Sony descubre la PlayStation 4 durante su conferencia del E3:
Filed under:

Sony descubre la PlayStation 4 durante su conferencia del E3

Durante la conferencia del E3 de Sony, que está llevándose a cabo en estos momentos, se acaba de mostrar el diseño final de la PlayStation 4. Como puedes ver en la imagen superior, la consola es totalmente negra, pero incluye atractivas líneas y esquinas pronunciadas, con una llamativa banda LED de color azul cruzando su carcasa. A pesar de eso, parece diseñada para no llamar mucho la atención en nuestro salón (como la Xbox One, si nos perdonas decirlo). El mando DualShock 4 y el “Eye” no son novedad, pero es bueno verlos junto a la consola.

Entre las novedades Sony comentó que por medio de la consola podrán verse eventos de pago alrededor del mundo, así como el lanzamiento de contenidos exclusivos desarrollados por sus estudios para los usuarios de PSN. Otros servicios que estarán presentes en la consola son Netflix, Flixster y Redbox.

Permalink | Email this | Comments

OS X Mavericks [A primera vista]

OS X Mavericks [A primera vista]:
Con menos de medio día tras el anuncio durante el WWDC del nuevo sistema operativo OS X 10.9 “Mavericks”, nos hemos descargado la versión para desarrolladores oficial desde el Developer Network de Apple y comprobar todas las novedades que Apple ha mencionado y algunas mejoras que no han comentado.
Debería empezar con lo más obvio de todo, OS X Mavericks ahora mismo no es una beta, es prácticamente una alpha, una primerísima versión para desarrolladores que simplemente “funciona”. Me he encontrado muchos bugs, fallos de traducción, elementos que no concuerdan o simplemente elementos que se actualizarán en futuras versiones.
¿Se siente diferente OS X Mavericks? Es definitivamente una nueva versión de OS X, pero no hay un gran cambio radical en la interfaz, siquiera en las típicas aplicaciones. Desde luego, no es un cambio drástico como el de Windows 8, es una continuación de OS X 10.8, mejorando las cosas que sabe hacer bien y sin querer entrometerse en dispositivos para los que no está preparado.
Aunque nos encontramos con una versión del sistema operativo muy verde, claramente en un estado de desarrollo que entra en su fase final, pero a la que le queda bastante por hacer para estar terminada y añadirle el Release Preview, Release Candidate y por fin, Gold Master (versión final idéntica a la que se vende).

Safari 7.0


La nueva versión de Safari integra bastantes novedades que ya comentamos durante su presentación. Aunque sin un retoque de diseño drástico, podemos ver que la nueva pantalla de Top Sites, el lugar donde se muestran las páginas más abiertas en el navegador tiene un buen rediseño.
Pero sin duda donde nos encontramos lo mejor de esta nueva versión de Safari es la nueva barra lateral, donde encontramos nuestros Favoritos, la Lista de Lectura y los Enlaces Compartidos. Es en Enlaces Compartidos donde encontramos la razón de existir de esta barra, podemos ver en tiempo real todos los links que se comparten en Twitter y en LinkedIn, que ahora se integra con OS X Mavericks.

Al abrir uno de estos links nos mostrará en una nueva pestaña la web, con una barra superior que muestra que viene desde Enlaces Compartidos, dando la opción de “Retuitear” el link en nuestra cuenta. Esta barra se abre con la combinación de teclas CMD + Shift + L o en el menú Visualización → Mostrar Barra Lateral.

¿Es Safari tan rápido como dice Apple? Quizá en una versión más “final”, pero desde luego ahora mismo, con esta primera versión Safari no es más rápido que Chrome. Las actualizaciones del motor Javascript en Safari 7.0 han hecho su trabajo, ahora es más rápido que las versiones anteriores, pero no logro encontrar una base razonable a que en la conferencia para desarrolladores Apple diga que Safari gana a Chrome. Una simple prueba basándonos en SunSpider, muestra en el 90% de las veces a Chrome como navegador más rápido. Es cierto que la diferencia entre ambos navegadores es mínima, pero Chrome sigue siendo más rápido.
El comportamiento de Safari es de una beta, me he encontrado algunos bugs que han provocado su cierre repentino, por ejemplo al gestionar imágenes de grandes dimensiones. ¡Pero ey! Es una beta, no nos olvidemos de ello.

Notas


La aplicación de Notas ha sufrido cambios de diseño, pero no de funcionalidad. Sigue siendo una pequeña pero práctica aplicación para tomar notas rápidas. En cuanto a su diseño, se olvidan de efectos de piel y complicados elementos o incluso tipografías.
Nos encontramos con una aplicación mucho más simple que se enfoca en el contenido de las notas, con Helvetica como tipografía por defecto, aunque puedes recurrir de nuevo a otras tipografías como Marker Felt o Noteworthy.

Contactos


Otro cambio de diseño, y los cambios se quedan ahí. La aplicación de Contactos en OS X Mavericks no ha sufrido muchos cambios. Sin duda el nuevo diseño más simple y “plano” nos permite centrarnos más en los contactos, pero aparte de que se muestran contactos con las diferentes redes sociales como Facebook, Twitter o LinkedIn, no existen cambios importantes.

Mapas


Directamente desde iOS, por primera vez Apple presenta una aplicación de Mapas en OS X Mavericks. Para Apple, su utilidad reside en buscar puntos de interés para poder compartir con iOS, agregar a una lista de favoritos o agregar una dirección concreta a un contacto de la Agenda. Pero su funcionamiento es idéntico al que nos encontramos en iOS.
Los Mapas de Apple pueden ser peores que Google Maps, desde luego, falta mucha información que Google Maps tiene con una ventaja de años y hasta una función que hoy en día es importante como es Street View, pero Mapas para OS X es una aplicación que viene bien si simplemente quieres revisar donde se encuentra alguna calle o un comercio.
Mapas para OS X tiene las funciones de vista de satélite y visión en 3D que se integra en iOS, una función muy interesante para investigar calles y edificios de alguna zona.


iCloud


La principal novedad de iCloud en OS X Mavericks es iCloud Keychain, este sistema integrado en el servicio de iCloud ahora es capaz de sincronizar algo más que los documentos de tus aplicaciones, puedes crear automáticamente contraseñas seguras al crear una cuenta en prácticamente cualquier formulario web y que iCloud recuerde los datos de acceso, pero también puedes almacenar las redes Wi-Fi a las que te conectas con las respectivas contraseñas, función que será realmente interesante cuando iOS 7 permita hacer exactamente lo mismo.
Si vienes de una versión anterior de OS X y tenías previamente una cuenta de iCloud configurada en el Mac, debes activar esta opción en Preferencias del Sistema.

Cuentas


Mientras a lo que la sincronización con cuentas se refiere, Apple sigue manteniendo iCloud, Microsoft Exchange, Gmail, Twitter o Facebook. Las tres primeras de las mencionadas sobre todo para crear cuentas de correo o sincronizar calendarios y agenda. Twitter y Facebook se sincronizaba para añadir contactos a la Agenda y para que en OS X y en Safari se pudiese compartir enlaces y fotografías. Flickr y Vimeo también estaban presentes para compartir fotos y vídeos.

Con OS X Mavericks Apple hace el sistema operativo más social. Ahora se integra con las cuentas de Yahoo! y Aol. que son bastante usadas por EE. UU., no tanto en el resto del mundo. Además de ello, se integra LinkedIn para compartir enlaces y sincronización de contactos.

Finder


Finder, el explorador de archivos de OS X tiene algunas mejoras que merecen ser mencionadas. Sin duda la función que más interesará a muchos es la navegación por etiquetas o por tags. En realidad lo que Apple ha hecho es usar la calificación por colores de OS X 10.8 y hacer que se pueda organizar la vista por estos colores. En versiones anteriores ya se podía cambiar los nombres a los colores para hacerlo más personalizado, pero con OS X Mavericks puedes agregar más etiquetas y cambiarlas de color, aunque es raro que por ahora no permitan seleccionar un color más personalizado para las etiquetas creadas.

Otra nueva función que se ha cogido prestada de otras aplicaciones reemplazos de Finder es la opción de poder abrir pestañas en Finder. Tal y como puedes pensar, funciona como un navegador, puedes tener una ventana de Finder y presionar CMD + T para crear otra pestaña o bien reunir algunas ventanas abiertas en una con pestañas.

Calendario


Otra de las aplicaciones con un cambio de diseño “más plano” es Calendario. Esta aplicación es bastante útil cuando tienes varias cuentas que gestionar y tienes bastantes calendarios a los que atender todos los días, pero gracias a la nueva paleta de colores las diferentes citas son más visibles.

Pero donde nos damos cuenta de una verdadera mejora en Calendario es cuando agregamos un nuevo evento. Al añadir la localización de un evento Calendario automáticamente te da una dirección aproximada basándose en Mapas. También se agrega un nuevo campo de “Duración del viaje” que te permite elegir el tiempo que puedes tardar en llegar a la cita dependiendo de donde te encuentres. La visualización de mapa además, agrega la previsión meteorológica que se espera en ese lugar para la hora del evento, información en ocasiones muy importante.

Vista Previa


Actualización: Algunas funciones ya estaban presentes en OS X 10.8 como lupa y firmas.
Vista Previa es la aplicación que te permite visualizar fotografías y desde OS X 10.8 añadir algunas mejoras y retoques en fotografías además de agregar unas simples funciones para agregar texto o elementos como líneas, rectángulos, círculos o elementos para resaltar algunas partes de las fotos o documentos.
Existen mejoras interesantes en esta aplicación que Apple no había contado. Por ejemplo, ahora existe una lupa que te permite ver las fotografías al tamaño máximo de resolución, quizá un elemento que se hereda de aplicaciones de edición de fotografías como Apple Aperture.
Se mantienen opciones para corregir contraste, brillo, color, enfoque… Además de agregar más colores a la paleta de agregar elementos flotantes y mejorar bastante la herramienta de selección con formato rectangular, círculo, Lasso y Lasso inteligente.


[Nota: función ya presente en 10.8] Pero quizá una de las funciones no mencionadas pero que son increíblemente útiles es un nuevo sistema de reconocimiento de firmas. Vista Previa integra una función que permite capturar y adjuntar una firma en documentos. Funciona gracias a la cámara iSight, tienes que hacer una firma en una hoja de papel blanca, a ser posible con un rotulador o algún bolígrafo donde se vea bien la firma, escasear la firma mediante la cámara y que Vista Previa automáticamente digitalice la firma para poder insertarla. Mis primeras pruebas han sido un fallo tras fallo, pero haciendo bien una firma lo suficientemente grande y clara, se puede conseguir.

Dictado y reconocimiento de voz

Click aqui para ver el video.
OS X 10.9 “Mavericks” integra una mejorada función de dictado en diferentes idiomas, entre ellos el español. Se nota bastante el trabajo que hay detrás gracias a herramientas que encontramos en iOS como Siri, ya que el audio es enviado automáticamente a los servidores de Apple para poder transcribir lo que dices en texto. Aunque el sistema no es perfecto, se puede llegar a crear textos sin necesidad de escribir.
Incluye una función para poder usarlo cuando no tienes conexión a internet, descargándote un paquete de 800 MB al sistema operativo y que permite reconocimiento y feedback instantáneo.

Control de energía


Apple se enorgullece de mencionar que con OS X Mavericks se ha mejorado mucho el rendimiento, ya no solo del sistema, también de las aplicaciones. Con estas tecnologías avanzadas se ha logrado mejorar el rendimiento y la vida de la batería ayudado con nuevo hardware. Ahora desde el menú de Batería podemos encontrar que aplicaciones de las que tenemos abiertas están consumiendo más energía, mostrando el Monitor de Actividad donde muestra datos del impacto de esta aplicación en la batería.
Aunque si comparamos con la versión anterior de OS X es cierto que encontramos una mejora de vida de la batería e incluso alguna mejora de rendimiento, el software está tan en fase beta que apenas vamos a poder notar una gran mejora.

Varias pantallas


Una de las mayores quejas que tienen los usuarios de OS X 10.8 con varias pantallas conectadas, es lo mal pensado que está la opción de hacer que las aplicaciones se vean a pantalla completa. Es simplemente inusable cuando tienes un monitor conectado porque automáticamente hace que la otra pantalla se quede en gris y no puedas usarlo. Esta queja se arregla con OS X Mavericks, ahora se puede tener varias pantallas y si abres una aplicación a pantalla completa, la otra seguirá funcionando de forma normal.
El funcionamiento de varias pantallas va más allá, tienes el escritorio completo en ambas pantallas con la barra de menú y el Dock de aplicaciones, aunque el Dock siempre estará en la pantalla donde tengas una ventana de Finder abierta. Mission Control también hace una separación de aplicaciones dependiendo de la pantalla.
Por último, ahora es posible usar AirPlay en un Apple TV para crear una nueva pantalla, una solución bastante sencilla y quizá barata para tener un monitor extra. No hemos podido hacer esta prueba ya que no tenemos un Apple TV en estos momentos (estamos en ello) pero por comentarios que hemos escuchado, existe cierto lag y pérdida de calidad por hacer streaming vía Wi-Fi, aunque queremos verlo con nuestros propios ojos esta función y actualizar esta parte.

Notificaciones


Las notificaciones presentes en 10.8 siguen en la barra lateral derecha, donde se van almacenando todos los eventos de diferentes aplicaciones. Pero la novedad en OS Mavericks está en que se podrá interactuar con ellas, eso si, dependiendo de la aplicación. Por ahora usando Mensajes podrás responder a los mensajes sin tener que abrir la conversación o la aplicación.
Cuando tienes el Mac en reposo o con la pantalla bloqueada, al escribir la contraseña de tenerlo bloqueado con ella, se verá una lista de notificaciones pendientes de leer.

Pequeños detalles


No queríamos cerrar este a primera vista de OS X Mavericks sin hablar de algunos detalles que no deberán quedarse fuera de esta lista de novedades. Como por ejemplo los nuevos menús contextuales al insertar un nuevo carácter especial o al insertar un Emoji en la aplicación de Mensajes.


En las Preferencias del Sistema nos encontramos alguna novedad, como en la sección de App Store donde podemos activar o desactivar según queramos que se busquen actualizaciones automáticamente, su descarga e instalación. Otra novedad es la sección “Disco de arranque”, donde si tienes más de un disco duro o memoria SSD integrada o conectada a tu Mac, podrás elegir desde cual arrancar.

Compatibilidad

Por último, es importante mencionar con que Macs será compatible Mavericks, ya que con cada versión se empieza a dejar de lado los portátiles y PC más antiguos. OS X Mavericks será compatible con estos Macs:

  • iMac: Mid-2007 o posterior.
  • MacBook: 13 pulgadas aluminio de Finales de 2008, 13 pulgadas principios de 2009 o posterior.
  • MacBook Pro: 13 pulgadas mediados 2009 o posterior, 15 pulgadas mediados/finales 2007 o posterior, 17 pulgadas finales 2007 o posterior.
  • MacBook Air: finales 2008 o posterior.
  • Mac Mini: principios de 2009 o posterior.
  • Mac Pro: Principios de 2008 o posterior.
  • Xserve: Principios de 2009.

AMD FX-9590 acelera hasta los 5 GHz

AMD FX-9590 acelera hasta los 5 GHz:
Filed under:

AMD FX-9590 acelera hasta los 5 GHz

No sólo de consolas vive el mundillo gamer y el E3 es uno de los mejores lugares para guiñar un ojo a la tribu “pecera”, particularmente a los amigos del overclocking. Los fans de este tipo de prácticas están hoy de enhorabuena con el lanzamiento por parte de AMD una nueva versión de sus chips FX de 8 núcleos.

El más llamativo de todos es el modelo FX-9590 al presumir de una velocidad de reloj de 5 GHz en modo turbo, lo que lo convierte en el primer procesador de este tipo que llega al mercado. Apenas un pasito por detrás se coloca su hermano el FX-9370, alcanzando unos honrosos 4,7 GHz (como referencia te diremos que el modelo FX-8350 de la serie actual únicamente llegaba a 4,2 a marchas forzadas). Ambas unidades están basadas en la plataforma Piledriver core, que goza de buena fama tanto por su precio asequible, como por su facilidad para desempeñar este tipo de tareas.

En caso que andes preguntándote dónde se sitúa exactamente Haswell en todo esto, es preciso señalar que juegan en ligas diferentes, ya que Intel ha preferido centrarse en cambios a nivel de arquitectura que no comprometieran la eficiencia, pasando discretamente de incrementar las velocidades de reloj. Maingear ya ha anunciado planes de apostar por estos 5 GHz en sus próximos sistemas de juego, pero de momento no tenemos fechas ni precios con los que ilustrarte (cruzaremos los dedos a ver si así nos sacan pronto de dudas).

Permalink | Email this | Comments

Encuentran en un meteorito marciano un elemento clave para la formación del ARN

Encuentran en un meteorito marciano un elemento clave para la formación del ARN: Investigadores del Manoa NASA Astrobiology Institute (UHNAI) de la Universidad de Hawaii han descubierto altas concentraciones de boro en un meteorito marciano hallado en 2010 en la Antártida. Se sabe que este elemento químico, en estado de oxidación (borato) habría jugado un papel clave en la formación del ARN, uno de los elementos básicos para la vida.

Encuentran en un meteorito marciano un elemento clave para la formación del ARN
Investigadores del Manoa NASA Astrobiology Institute (UHNAI) de la Universidad de Hawaii han descubierto altas concentraciones de boro en un meteorito marciano.

Se sabe que este elemento químico, en estado de oxidación (borato)‎, podría haber jugado un papel clave en la formación del ARN‎, uno de los elementos básicos para la vida.

Según publica el UHNAI en u…

Tendencias 21 (Madrid). ISSN 2174-6850

Descubren un nuevo tipo de estrella variable en el cúmulo de la Perla

Descubren un nuevo tipo de estrella variable en el cúmulo de la Perla: Las estrellas variables son aquéllas que experimentan una variación en su brillo en el transcurso del tiempo. Precisas observaciones realizadas en un cúmulo estelar con el telescopio suizo Euler, instalado en el Observatorio La Silla de ESO, han revelado propiedades anteriormente desconocidas de estas estrellas que desafían las actuales teorías y abren nuevas interrogantes sobre el origen de sus variaciones.

Descubren un nuevo tipo de estrella variable en el cúmulo de la Perla
Utilizando el telescopio suizo Euler de 1,2 metros, instalado en el Observatorio La Silla de ESO (en Chile) un equipo de astrónomos ha descubierto un nuevo tipo de estrella variable‎, que son aquellas estrellas que experimentan una variación en su brillo en el transcurso del tiempo.

El descubrimiento se basó en la detección de cambios muy pequeños en el brillo de las estrellas de un cúmulo. Las observaciones revelaron propiedades anteriormente desconocidas de esas estrellas que desafían las actuales teorías y abre…

Tendencias 21 (Madrid). ISSN 2174-6850

Invisibilidad a un precio asequible

Invisibilidad a un precio asequible: Un físico de la Universidad de Rochester (EEUU) ha desarrollado tres dispositivos de camuflaje óptico simples y eficaces con materiales de bajo coste: 150 dólares, unos 113 euros. Aunque estos sistemas aún presentan limitaciones, el avance podría ser escalable a grandes dimensiones.

Invisibilidad a un precio asequible
John Howell es un profesor de física de la Universidad de Rochester (EEUU) que ha conseguido desarrollar dispositivos de camuflaje óptico simples y eficaces con materiales de bajo coste.

Lo ha hecho con la ayuda de Benjamin, su hijo de 14 años, y en total ha construido tres. Una de las novedades de su invento es su precio: en total, le ha salido por 150 dólares (unos 113 euros).

Como public…

Tendencias 21 (Madrid). ISSN 2174-6850

[Vídeo] Moviendo robots voladores con la mente… y sin verlos

[Vídeo] Moviendo robots voladores con la mente… y sin verlos:
asEn la Universidad de Minnesota (EEUU) podéis contemplar el siguiente hito tecnológico: un helicóptero de cuatro hélices (quadrirotor) controlado por la mente de una persona que ni siquiera lo ve, sin más intervención física que los 64 electrodos colocados en su cabeza.
Según Bin He, autor principal del estudio: “Nuestro estudio muestra que, por primera vez, los seres humanos son capaces de controlar el vuelo de los robots voladores utilizando sólo sus pensamientos, usando de forma no invasiva las ondas cerebrales”.

Vía | Rinzewind

Todos los detalles técnicos detrás del nuevo Mac Pro #WWDC13

Todos los detalles técnicos detrás del nuevo Mac Pro #WWDC13:
Durante el evento WWDC 2013, Apple presentó el nuevo Mac Pro, computadora de escritorio que tradicionalmente se ha posicionado como la de mayor desempeño en la familia Mac, apuntada hacia profesionales creadores de contenido que requieren de gran poder de procesamiento y flexibilidad para la utilización de periféricos.
Y sorprendió el pequeño tamaño que posee la torre: 25 centímetros de alto en un cilindro que se coloca de pie y cuyo diámetro es de 16 centímetros. ¿Cómo fue posible pasar de una enorme torre de aluminio a un pequeño cilindro, conservando características como un procesador de servidor y gráficos profesionales?
Se pudo hacer y es muy interesante ver cómo el Mac Pro quizás sea la idea más innovadora de todo el evento WWDC 2013, pese a que iOS 7 se robó el protagonismo del show.

Especificaciones básicas


Durante WWDC 2013 se dieron a conocer las especificaciones técnicas básicas del nuevo Mac Pro, partiendo por el procesador central Intel Xeon E5 con soporte de hasta 12 núcleos físicos, poniéndolo a la par del Mac Pro antiguo al traer consigo esta clase de CPU para servidores profesionales. Porque soporta mayor cantidad de tipos de instrucciones, ofrece un rendimiento más seguro y se preocupa del consumo energético para entregar el desempeño más estable durante jornadas de trabajo que duran días.
Por otro lado, se le da gran importancia a los gráficos profesionales AMD FirePro, que no son tarjetas de video tradicionales de la línea Radeon HD 7000 optimizadas para el rendimiento en entretenimiento y juegos 3D, sino que la línea FirePro está pensada para ejecutar tareas en CAD y software profesional, dándole prioridad al rendimiento en ciertos aspectos específicos que se utilizan en dichos entornos y a la estabilidad de la plataforma. Y el Mac Pro no trae una, sino que dos tarjetas de video AMD FirePro.
Después tenemos la memoria RAM quad-channel (en notebooks generalmente es dual-channel) corriendo a una frecuencia de 1866MHz, entregando un ancho de banda de hasta 60GB/seg que duplica su desempeño en relación al Mac Pro antiguo, la que parece ser fácilmente removible e intercambiable a través de ranuras laterales, lo que permitiría su fácil reemplazo para una actualización manual a futuro. Y la memoria es del tipo ECC, que previene y corrige errores durante prolongados tiempos de uso, asegurando estabilidad.
Finalmente, el almacenamiento masivo llega a través de unidades de estado sólido (SSD) conectadas vía PCI Express. Esto quiere decir que en lugar de tener un disco duro giratorio, hay una tarjeta con chips sólidos que proveen del espacio para guardar el sistema operativo y los archivos del usuario. Y no está conectada vía SATA III como todos los SSD o discos duros en notebooks, sino que utiliza un puerto PCI Express igual que las tarjetas de video en PCs de escritorio, lo que permite transferir datos a altísimas velocidades de 1250MB/seg en el nuevo Mac Pro, mientras que un SSD vía SATA III en notebook anda a 500MB/seg y un disco duro en SATA II promedia 100MB/seg.

Diseño cilíndrico y el novedoso sistema de ventilación


El nuevo Mac Pro llama la atención por su extraño diseño de cilindro que nos recuerda al robot R2D2 de las películas Star Wars. ¿Con qué fin hicieron esto en Apple? Más que estética, el diseño responde a una necesidad funcional.
Resulta que el tamaño del nuevo Mac Pro es un octavo de lo que era la gran torre del Mac Pro antiguo, pese a que seguimos viendo un procesador central Intel Xeon para servidores y tenemos dos tarjetas de video profesionales integradas. Para lograrlo, en Apple solucionaron uno de los problemas más relevantes que obligan a tener chips de alto desempeño en un espacio físico amplio: hay que dejar lugar para los ventiladores y sistema de disipación de calor de cada componente.
En un PC tradicional, cada tarjeta de video lleva su propio ventilador. El procesador central también. A veces las memorias RAM traen un disipador de calor pasivo sin ventilador, pero que ocupa espacio. En cambio, el nuevo Mac Pro divide todos sus componentes en tres grandes tarjetas, las que se colocan en forma triangular y de pie:

Acá va todo sin ventiladores, sólo el PCB o tarjetas con sus chips integrados y nada más. El problema ahora es cómo lo enfriamos. Para eso, Apple pensó en colocar un único ventilador grande en la parte superior que se lleve todo el calor reunido por disipadores que centralizan la temperatura de las tres tarjetas, haciendo que ésta en lugar de irse hacia cualquier parte, apunte siempre hacia el centro:

De ahí las aspas del ventilador superior se llevan el calor hacia afuera y arriba, donde podemos colocar nuestra manos y recibir algo de aire caliente cuando el clima esté frío ;)

Apple dice que es primera vez que se fabrica una computadora de escritorio de esta manera. Y según nuestra memoria, esto puede ser verdad. Más aún, la compañía asegura que de ahora en adelante esta resulta ser la manera más lógica y eficiente de construir esta clase de equipos de escritorio, por lo que no se ven haciéndolos de otra forma e imaginamos que el resto de los fabricantes tampoco.

Conectividad externa


Hasta aquí iba todo perfecto. Diseño innovador, eficiente y conservando el perfil profesional y de alto rendimiento que caracteriza al Mac Pro. Pero el detalle negativo que le encontramos al Mac Pro es su ofrecimiento en términos de conectividad externa.
Porque aparte de WiFi 802.11ac y Bluetooth 4.0, en el panel de conectividad del Mac Pro encontramos la razonable cifra de cuatro puertos USB 3.0, además de una salida de video HDMI estándar y puerto Gigabit Ethernet para un cable de Internet. Eso es todo. No hay más salidas de video de otro tipo, otra clase de audio… sólo existen seis puertos adicionales Thunderbolt 2. Repetimos: seis puertos Thunderbolt 2.
Acá la apuesta de Apple es clara. Ir de lleno hacia el mar de Thunderbolt, protocolo de transmisión de datos que reemplazó a Firewire y le compite a USB, ofreciendo una velocidad de transferencia de hasta 20Gb/seg, lo que es cuatro veces más que los 5Gb/seg de USB 3.0 y el doble de los 10Gb/seg de la primera versión de Thunderbolt.
Además, Thunderbolt 2 permite conectar toda clase de periféricos, gracias a su flexibilidad para funcionar casi como cualquier otro puerto si es que tenemos el adaptador físico correspondiente. Podemos transformarlo en USB, salida de video con soporte para resolución 4K, Ethernet, y un largo etcétera.
El problema es que Thunderbolt no es un estándar y está siendo impulsado casi únicamente por Apple, con el resto de la industria decantándose por USB 3.0, Y al ocurrir aquello, encontraremos muy pocos accesorios y periféricos diseñados para Thunderbolt, por lo que tendremos que recurrir a adaptadores. Y si los encontramos, como por ejemplo un disco duro externo con puerto Thunderbolt 2, generalmente será a un alto precio. Un ecosistema cerrado y exclusivo, como a Apple le gusta.
Link: Mac Pro (Apple)

Avances en baterías

Avances en baterías:
Se producen nuevos avances en baterías que permiten vislumbrar un futuro mejor, más ecológico e independiente de los poderosos.

Foto
Fuente: ZSW.

Una manera de cambiar el mundo a mejor es inventando mejores baterías. Con mejores baterías las energías alternativas serían más fiables, automóviles eléctricos tendrían una gran autonomía y podríamos incluso desenganchar nuestras casas de las redes eléctricas. Pero la realidad es que la capacidad de almacenamiento de energía por kilogramo de las baterías actuales es muy baja y encima después de un determinado número de ciclos de carga hay que tirar dicha batería a la basura (o reciclarla).

Se trabaja en diversos frentes para resolver estos problemas. A continuación vamos a ver algunas de las propuestas más recientes.
La primera propuesta proviene del centro de investigación alemán ZSW. Según su nota de prensa han mejorado las baterías de ion-litio actuales hasta conseguir los 10.000 ciclos de carga y aún así retener el 85% de la capacidad de las mismas [1] . Eso significaría que un automóvil que recargase todos los días sus baterías podría seguir funcionando con las mismas durante más de 27 años.

Algo así permitiría hacer despegar a los autos eléctricos en el mercado si el precio no fuese muy alto. El problema actual es que incluso después de comprar un coche eléctrico, que ya de por sí es muy caro, hay que ir sustituyendo las baterías cada cierto número de años.

También serían muy útiles estas baterías en los ordenadores portátiles y otros dispositivos como teléfonos celulares, reproductores autónomos de música, etc. Es casi milagroso que la batería de un portátil todavía funcione al cabo de tres años.

La mejora en esta tecnología parece provenir de un mejor diseño de los electrodos, pues aguantan mejor los cambios de volumen producidos por los ciclos de carga/descarga y esto les proporciona una mayor longevidad.

En las nuevas baterías la densidad de potencia es también bastante aceptable pues se consiguen los 1100 vatios por kilogramo.

Se espera que pronto estén en el mercado.

Foto
Fuente: Yanguang Li, Stanford University .

Por otro lado, investigadores de la Universidad de Stanford han conseguido avances en baterías de zinc-aire [2], [3]. En este tipo de baterías se usa oxígeno y con ello se ahorra peso, pues se toma o se devuelve a la atmósfera dependiendo del ciclo de carga.

Según los investigadores hay demanda de baterías baratas y seguras y esta batería podría ser una alternativa de bajo costo a las de litio. Este tipo de baterías están ya comercializadas para cierto tipo de aplicaciones específicas en donde la seguridad es importante, como en telecomunicaciones o en medicina.

El problema de este tipo de batería es su baja densidad en el almacenamiento de energía, aunque es más barata. Otro problema es el limitado número de ciclos de carga.

En este tipo de batería el zinc suele estar disuelto en un electrolito alcalino y reacciona con el oxígeno atmosférico para formar óxido de zinc y energía. Durante la recarga se libera ese oxígeno a la atmósfera y se vuele a obtener zinc.

Este grupo de investigadores ha desarrollado electrocatalizadores no provenientes de metales preciosos que producen una actividad catalítica alta y una alta durabilidad de los electrolitos alcalinos de la batería.

Una combinación de óxido de cobalto y de hidróxido de níquel-hierro es la que permite a estas baterías de zinc-aire alcanzar una alta eficiencia y tener una densidad de energía que es el doble de las baterías de ion-litio tradicionales.

En el laboratorio se ha podido comprobar un buen comportamiento en el número de ciclos de carga, pues mantienen la misma carga al cabo de varias semanas.

Foto
Fuente: Oak Ridge National Laboratory.

Científicos del departamento de energía del Oak Ridge National Laboratory han conseguido diseñar y probar una batería de litio-azufre de estado sólido que tiene 4 veces la densidad de energía de las baterías convencionales de ion-litio [4], [5].

Una de las ventajas de esta batería es que el azufre es un elemento abundante de la corteza terrestre y es barato, aunque puede ser inflamable.

Incluso este tipo de batería ayudaría ha deshacerse el azufre que se produce en diversos procesos industriales y que no se sabe qué hacer con él. Se puede decir que el azufre es prácticamente gratis.

La idea de partida era modificar las baterías de azufre de electrolito líquido ya existentes desde hace más de un siglo, pero conseguir una versión de estado sólido. Por un lado el electrolito líquido ayuda a conducir los iones, pero limita la vida de la batería por el otro. Así que han probado con abandonar totalmente esta vía líquida y pasar a la sólida creando un tipo de batería totalmente nueva en el proceso.

En este caso el cátodo es rico en azufre y el ánodo en litio. El electrolito es sólido. Con esto se consigue una alta capacidad, se reduce el coste y se aumenta la seguridad si se compara con las baterías de ion-litio convencionales. El voltaje producido es la mitad.

En concreto se consiguen los 1200 mAh (miliamperios hora) por gramo después de 300 ciclos de carga a 60 grados centígrados, mientras que en las de ion-litio convencionales se alcanzan los 140-170 mAh.

Al eliminar el electrolito líquido se reducen los riesgos de incendio asociados a ellos debido a su inflamabilidad.
Estos avances y otros similares permiten vislumbrar un futuro en el que se almacene localmente la energía obtenida mediante paneles solares y aerogeneradores. Comunidades de vecinos, barrios, pueblos o ciudades podrían abastecerse de energía gracias a fuentes alternativas [6].

Generalmente se usan generadores de gas natural para los picos de demanda o se bombea agua a altura durante las horas de bajas demanda. Estos métodos parecen bastante económicos comparados con las baterías, pero no siempre es así.

Ya se están instalando baterías (convencionales e innovadoras) para estas y otras aplicaciones. Así por ejemplo, en una torre de 58 pisos de Manhattan se ha instalado una batería de 2 megavatios hora capaz de proporcionar 550 kilovatios de potencia durante las horas de mayor demanda. Similares instalaciones se están colocando en otros edificios, cadenas de hoteles, etc. El ahorro (al parecer millonario) se produce debido a que proporcionan potencia adicional durante las horas de mayor demanda, por lo que el contrato con la compañía eléctrica se hace a menor potencia.

También se usan para proporcionar alimentación segura y estable a servidores de Internet. Otro uso es el tener un generador propio en la compañía o empresa y con él cargar las baterías que proporcionan energía según la demanda. La amortización se produce al cabo de pocos años.

La situaciones que se dan tras terremotos, huracanes o tornados ya hacen que estos sistemas de apoyo sean imprescindibles, sobre todo si están basados en paneles solares.

Quizás la esperanza más ilusionante es que los poseedores de una casa podrán autoabastecerse de corriente eléctrica usando paneles solares y pequeños aerogeneradores gracias al uso de baterías. Los números empiezan a cuadrar.

¿Ha llegado el futuro? El plan de la Unión Europea de imponer aranceles a los paneles solares chinos importados, cuando permite deslocalizar cualquier otra industria, así lo parece indicar. ¿Es un plegamiento ante las compañías eléctricas que ven peligrar su negocio? Quizás los numerosos expolíticos que se sientan en sus consejos de administración nos lo puedan aclarar si no están muy ocupados con su tren de vida.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4130

Nuevo Mac Pro con Thunderbolt 2 y un diseño reducido #WWDC2013

Nuevo Mac Pro con Thunderbolt 2 y un diseño reducido #WWDC2013:
Apple ha presentado el nuevo Mac Pro, y si, es completamente diferente de lo que se ha visto hasta el momento, porque por primera vez Apple ha conseguido crear un PC de muchísimo poder en un equipo que es ridículamente pequeño.
El nuevo Mac Pro es un equipo especialmente pensado para profesionales que necesitan el máximo poder del momento. Tanto que integrará la última generación de procesadores Intel Xeon de 12 núcleos. Integra la nueva versión de Thubderbold que Intel acaba de presentar en el marco del Computex. Con esta nueva versión se puede conectar hasta seis dispositivos en línea con un ancho de banda de 20 Gbps. Con este ancho de banda Apple ha comprobado que se pueden conectar hasta tres pantallas a una resolución 4K.

Otras características es la posibilidad de integrar dos procesadores gráficos AMD FirePro. Flash PCIe para integrar memorias SSD directamente mediante un slot PCIe que ofrece 2.5x más de velocidad que las unidades SSD conectadas mediante eSATA.
En cuanto a conectores, integra un sensor de movimiento que ilumina la parte trasera donde tiene sus conectores como cuatro puertos USB 3.0, seis puertos Thunderbolt 2, dos puertos Ethernet de 1 Gigabit, un conector HDMI y entrada y salida de audio.
motion sensor
Este nuevo Mac Pro estará disponible a finales de año, aunque Apple no ha confirmado fecha final de lanzamiento. Lo que Apple parece que confirma es que este Mac Pro se producirá directamente en EE. UU.

Link: WWDC 2013 en FayerWayer

El Tianhe-2 podría destruir el récord de los supercomputadores con sus 30,7 petaflops

El Tianhe-2 podría destruir el récord de los supercomputadores con sus 30,7 petaflops:
Filed under:

El Tianhe-2 podría destruir los récord de los supercomputadores con sus 30,7 petaflops

Deberemos esperar hasta el 17 de junio para obtener los resultados oficiales del “Top 500” de los superordenadores más rápidos del planeta, pero si los números obtenidos hasta ahora se corresponden con la realidad, el Tianhe-2 chino podría coronarse en el nuevo rey de la supercomputación, y con mucha diferencia. Este monstruo del cálculo habría funcionado a 30,65 petaflops usando el 90 por ciento de sus nodos, integrados por chips Ivy Bridge y Xeon Phi. Esta es una diferencia del 74 por ciento frente al siguiente supercomputador más rápido, el Titan, que funciona con velocidades de 17,6 petaflops. La diferencia es aún mayor con el número uno del año pasado, el Sequoia de la Administración Nacional de Seguridad Nuclear de Estados Unidos, anterior propietario del trono con 16,32 petaflops.

En unos días conoceremos el orden de la lista oficial; sin embargo, por ahora parece que China se llevará el primer puesto, y con una diferencia muy significativa.

Read | Permalink | Email this | Comments