Kaspersky renuncia a la BSA, rechaza firmemente la ley SOPA

Kaspersky renuncia a la BSA, rechaza firmemente la ley SOPA:

(cc) opk

La compañía de seguridad y antivirus Kaspersky Lab anunció su renuncia a la Business Software Alliance (BSA), una organización que reúne a grandes empresas de software – incluyendo a Adobe, Apple, Corel, Dell, Intel, Microsoft, Siemens y otros – debido al apoyo que entregó esta organización a la Stop Online Piracy Act, más conocida como Ley SOPA.

Kaspersky se unió a la BSA hace 18 meses, y afirmó ahora que terminará su membresía el 1 de enero de 2012. “Kaspersky Lab está consciente de la controversia pública y los debates iniciados por la Stop Online Piracy Act (SOPA). Kaspersky Lab ocasionalmente es mencionado en la discusión como miembro de la Business Software Alliance, que apoya la iniciativa SOPA”, señaló la empresa en un comunicado. La empresa “quiere clarificar que no participa en la elaboración ni discusión de la iniciativa SOPA, y no la apoya. Más aún, la empresa cree que la iniciativa SOPA podría incluso ser contraproducente para el interés público, y decidió descontinuar su membresía”.

Recientemente, la BSA suavizó un poco su posición respecto a la ley retirando el apoyo ciego que había entregado antes, pero aparentemente esto no fue suficiente para Kaspersky, que en su carta también desliza que la BSA nunca les consultó respecto a su posición frente a la ley.

La BSA no condenó directamente ni reconoció varias falencias de la legislación, que divide a dos grandes sectores de la industria. Por un lado, está la antigua industria hollywoodense que quiere detener las descargas de contenidos de la red, y por otro está la industria más nueva de Silicon Valley, que ve en esta ley medidas exageradas.

La BSA respondió a la retirada de Kaspersky afirmando que están “profundamente decepcionados” de que la empresa no renueve su membresía, “especialmente considerando que compartimos muchas preocupaciones sobre SOPA”.

La renuncia de Kaspersky probablemente no signifique un gran golpe para la BSA, pero sí ha servido para dejar en claro su posición, y la necesidad de la BSA de tomar una postura coherente.

Link: BSA red-faced as Kaspersky quits over SOPA support (ComputerWorld)

¿Un matemático ha conseguido explicar la rotación de las galaxias sin necesidad de materia oscura?

¿Un matemático ha conseguido explicar la rotación de las galaxias sin necesidad de materia oscura?:

coulddarkmat-800x4841.jpgParece que estamos viviendo una época en la que los postulados de la física pueden desmoronarse en cualquier momento. Hace poco fue lo de los neutrinos viajando a una velocidad ligeramente superior a la de la luz. Sin embargo, el fenómeno se presentó de una forma un tanto sensacionalista, y no era para tanto, tal y como explican estupendamente en Mala Ciencia.

Ahora el notición es que un matemático parece haber explicado la rotación de las galaxias excluyendo la existencia de la hipotética materia oscura. Y, de nuevo, parece que las cosas se están exagerando un poco a raíz de las publicaciones de Alt1040 sobre Physoeg a propósito del preprint que A. Carati, el matemático de marras, publicó la semana pasada en Arxiv.

En pocas palabras, podría desecharse la materia oscura para explicar la fuerza que mantiene unidas a las galaxias, a pesar de que los objetos visibles en el centro de la Vía Láctea sólo contienen alrededor del 10 al 20% de la masa necesaria para explicar las curvas de rotación de las estrellas exteriores.

Carati asegura que las curvas de rotación se pueden explicar por la influencia de la materia en las galaxias lejanas.

1-coulddarkmat-800x3491.jpgDe sus cálculos, la comunidad científica se ha mostrado bastante escéptica y saca las siguientes cuatro conclusiones:

-Hay tantas galaxias que no es difícil encontrar cuatro galaxias que se ajusten a las matemáticas.

-Las matemáticas de Carati se han adaptado para coincidir con los datos ya observados anteriormente.

-Sus cálculos no funcionan.

-O bien, y por último, la interpretación del autor y sus datos pueden ser objeto de debate y sus matemáticas realmente están en lo cierto.

Tal como explican en Stringers, el propio Carati llega a la necesidad de la materia oscura incluso cuando intenta negarla, y que, por supuesto, el modelo de Carati no es el primero en excluir la materia oscura: en la década de 1990 surgió lo que se conoce como Dinámica de Newton Modificada, que es capaz de obtener curvas de rotación casi perfectas a costa de modificar la segunda ley de Newton por la introducción de un término extra.

Vía | Alt1040 | Stringers

Otro método de rejuvenecer levaduras

Otro método de rejuvenecer levaduras:

Encuentran otro camino bioquímico que permite aumentar el número de divisiones y vida de las levaduras.

Foto

Los seres unicelulares son inmortales a no ser que un accidente físico o químico los destruya. Cada célula se divide indefinidamente desde la noche de los tiempos. Cuando la evolución dio con los seres multicelulares entonces el precio a pagar fue la muerte programada. El organismo delegaba la reproducción en un determinado tipo de células y se creaba un organismo nuevo y distinto, generalmente por reproducción sexual.

Una vez que el progenitor dejaba de reproducirse quedaba fuera del proceso de selección natural y evolutivamente tendía a desaparecer. La evolución, bajo esas circunstancias, no filtra procesos como el cáncer en edad avanzada o como los que producen el envejecimiento y muerte programada. Los sistemas que mantienen la salud de la célula empiezan a fallar con el tiempo y finalmente se produce el deterioro celular. Este deterioro celular a escala de todo el organismo es el que produce que finalmente el individuo muera. Además, ciertos tipos de tejidos están formados por células que no se reproducen y, por tanto, no son reemplazadas cuando son dañadas.

Desde hace años se ha hecho cierta investigación sobre cómo alargar la vida de ciertos organismos usando diferentes aproximaciones. Para ello se han usado los típicos organismos de laboratorio como ratones, nematodos C. elegans o levaduras. La levadura Saccharomyces cerevisiae es un hongo, un microorganismo que se reproduce por esporas y que es el responsable de nuestro pan, vino o cerveza. Debido a su facilidad de cultivo se usa en investigaciones genéticas y biológicas.

Ahora, una colaboración entre científicos del instituto Johns Hopkins y la Universidad Nacional de Taiwan han conseguido manipular la esperanza de vida de levaduras mediante la eliminación y restauración de la función de una proteína en células de levaduras envejecidas.

Una variante de esta enzima (la proteína Sip2), que determina el estado energético de la levadura, actúa como alargador la vida. Está presente en la “juventud” del organismo, pero progresivamente se atenúa según la levadura envejece.

Este estudio describe la identificación de un nuevo nivel de regulación de esta variante de proteína que está relacionada con el envejecimiento. Muestra que si se elimina entonces la vida del organismo se reduce considerablemente, pero que cuando se restaura la vida se alarga dramáticamente.

El descubrimiento revela parte de los componentes moleculares que están presentes en el proceso de envejecimiento de las levaduras y que, aparentemente, tabién está relacionado con la regulación de la longevidad en humanos.

Jef Boeke, del Johns Hopkins, dice que este control de la longevidad es independiente del tipo que fue descrito con anterioridad y que estaba relacionado con la restricción calórica. Cree que por primera vez se tiene una ruta biomédica hacia la juventud y envejecimiento que no tiene nada que ver con la dieta.

Foto

La variante enzimática descrita consiste en el añadido de un grupo acetilo a una molécula ya existente. Este tipo de cambio actúa como un interruptor sobre la función de la proteína, si se añaden muchos de estos grupos la función de la proteína cambia dramáticamente y esto permite al organismo una rápida adaptación a cambios ambientales. Hasta ahora este tipo de cambio (acetilación) se había encontrado alterando otras funciones, pero no sobre los mecanismos de envejecimiento.

El hallazgo sugiere que en algún futuro se podrían desarrollar tratamientos o sistemas de prevención contra el envejecimiento.

La acetilación de la proteína Sip2 afecta la longevidad de tal modo que determina el número de veces que la levadura puede dividirse. De forma natural la levadura se divide 25 veces, pero en las levaduras modificadas con la función de esta enzima restaurada han conseguido que el número de divisiones se eleve a 38. Es decir, un aumento de la esperanza de vida de un 50%.

Esta manipulación consistió en unos cambios bioquímicos que imitan el efecto de la acetilación y des-acetilización en la proteína Sip2. Las levaduras fueron cultivadas en placas de Petri y se comparó su longevidad con levaduras de control en otros cultivos. Las muestras se tomaron cada 90 minutos. Según las levaduras envejecían necesitaban más tiempo para desarrollarse y cada ronda de experimentos necesitaba de dos a cuatro semanas.

Cuando los investigadores devolvían la acetilación a esa proteína conseguían recuperar a las levaduras envejecidas y estás aumentaban su número de divisiones y periodo de vida.

En los próximos experimentos desean ver si este mecanismo opera también en células de mamíferos.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3677

Fuentes y referencias:

Nota de prensa.

Artículo original.

Fotos: Eye of Science/SPL, Cell.

Ainol NOVO7: El primer tablet Android 4.0 del mundo ya está disponible, y sólo cuesta 100 dólares

Ainol NOVO7: El primer tablet Android 4.0 del mundo ya está disponible, y sólo cuesta 100 dólares:

Filed under: ,

Al final no ha sido ni Samsung, ni Sony, ni Toshiba ni ningún otro gigante de la electrónica la compañía con el honor de traer al mundo el primer tablet Ice Cream Sandwich, sino la china Ainol. Aunque con truco. A pesar de que puede colgarse tan codiciada medalla, su NOVO7 ya estaba disponible anteriormente con Honeycomb, así que la transición ha sido tan rápida como natural. El tablet en cuestión incorpora un procesador Ingenic JZ4770 basado en MIPS a 1 GHz, así que no es lo que se dice un plusmarquista, pero unida a su GPU Vivante GC860 a 444 MHz le permite tragarse películas a 1080p sin demasiados problemas y manteniendo una autonomía óptima (hasta 30 horas en reposo, o 7 navegando según el fabricante).

Otros detalles destacables son el uso de una pantalla capacitiva de 7 pulgadas (próximamente también estará disponible en 8 y 9 pulgadas), una cámara trasera de 2 megapíxeles, una delantera VGA, puertos USB 2.0 y HDMI 1.3, la correspondiente ranura microSD y las prebendas de ningún otro que Andy Rubin, encantado de que los tablets MIPS de bajo coste aterricen para inundar el mercado.

¿Te parece bien todo esto? Pues espera, porque lo mejor es el precio: sólo cuesta 99 dólares (73 euros al cambio), gastos de envío aparte. Si puedes aguantar las ganas o prefieres ahorrarte el servicio de paquetería, Ainol afirma que próximamente (pero sin poner fechas) también podrá ser adquirida directamente en tiendas.

Continue reading Ainol NOVO7: El primer tablet Android 4.0 del mundo ya está disponible, y sólo cuesta 100 dólares

Read | Permalink | Email this | Comments

Científicos alemanes logran crear una pantalla repelente de huellas gracias al hollín

Científicos alemanes logran crear una pantalla repelente de huellas gracias al hollín:

Filed under:

En el Instituto Max Planck para la Investigación de Polímeros de Maguncia hace ya tiempo que se cansaron de pasar la manga por la pantalla del dispositivo de turno para deshacerse de las huellas. Un grupo de científicos se encuentra en estos momentos trabajando en un revestimiento especial que podría librarnos para siempre de estas molestias al impregnar el cristal con hollín de vela y luego sellarlo con sílice. El compuesto es luego calentado a la nada apetecible temperatura de 600 grados Celsius hasta que se calcina por completo y el hollín se vuelve transparente (todo un detalle teniendo en cuenta que la gracia de una pantalla es que se vea lo más claramente posible). A la hora de poner a prueba las propiedades del compuesto, los investigadores han intentado aplicar aceites y varios disolventes, pero el panel tratado logra tarde o temprano dar esquinazo al borrón. ¿Supondrá este avance el final de objetos de culto del calibre de los Potechi Hand?

[Vía Technology Review]

Read | Permalink | Email this | Comments

Robots autónomos contruyen un edificio de 6 metros usando 1.500 bloques

Robots autónomos contruyen un edificio de 6 metros usando 1.500 bloques:

Filed under:

Los escritores de ciencia ficción han asumido desde hace décadas que algún día, robots autónomos construirán nuestros hogares, y según una demostración hecha en Orleans, Francia, ese futuro no estaría muy lejos del presente. Robots aéreos no tripulados, también conocidos como UAV, construyeron un edificio de 6 metros usando 1.500 bloques. La construcción fue hecha basándose en planos muy precisos, pero los cuadricópteros tuvieron total libertad de movimiento, con independencia del control humano al ubicar cada bloque.

La estructura representa una “aldea vertical” que podría ser el hogar de unas 30.000 personas, y ahora se ha hecho en escala 1:100. El diseño proviene del trabajo de los arquitectos Fabio Gramazio y Matthias Kohler, mientras que la fabricación de los robots estuvo a cargo de un equipo dirigido por Raffaello D’Andrea, de la Escuela Politécnica Federal de Zúrich.

Te recomendamos que veas el video publicado tras el salto, para admirar la extrema precisión con la que estos robots ubican cada bloque.

Continue reading Robots autónomos contruyen un edificio de 6 metros usando 1.500 bloques

Permalink | Email this | Comments

Telescopio Kepler encuentra el primer exoplaneta similar a la Tierra y que podría contener agua

Telescopio Kepler encuentra el primer exoplaneta similar a la Tierra y que podría contener agua:

607690main_Kepler22bArtwork_800-600

La NASA anunció en conferencia de prensa que el observatorio espacial Kepler encontró el primer planeta ubicado en la llamada “zona habitable”, el que forma parte del sistema planetario Kepler-22 y que se encuentra a una distancia de 600 años luz.

Recordemos que los científicos denominan como zona habitable al área en donde se dan las condiciones para que un planeta posea agua, por lo que se incrementan las probabilidades de que exista algún tipo de organismo vivo.

El planeta, al que los investigadores han denominado como Kepler-22b, tiene aproximadamente 2,4 veces el radio de la Tierra y es el más pequeño encontrado hasta ahora que se encuentra orbitando el centro de la zona habitable de una estrella con características similares a nuestro Sol.

Con anterioridad el telescopio Kepler había encontrado dos planetas orbitando estrellas más pequeñas que nuestro Sol y que se encontraban dentro de la zona habitable, pero sus órbitas eran más parecidas a las de Venus y Marte.

Según Douglas Hudgins, científico del programa Kepler de la NASA, el descubrimiento representa un importante hito en la búsqueda de un planeta similar a la Tierra.

Claro que el descubrimiento de Kepler-22b llegó acompañado de otros 1.000 candidatos a convertirse en planetas, de los cuales unos diez tendrían un tamaño similar al de la Tierra y se encontrarían orbitando la zona habitable respecto a su estrella.

Link: NASA’s Kepler Mission Confirms Its First Planet in Habitable Zone of Sun-like Star (NASA)

Japón y Rusia anuncian que pueden clonar un mamut

Japón y Rusia anuncian que pueden clonar un mamut:

Mamut
Según un informe publicado el pasadao sábado, científicos de Japón y Rusia creen que puede ser posible clonar un mamut después de encontrar su médula osea bien conservada, en el hueso de un muslo recuperado en Siberia. Equipos de investigadores del Sakha Republic’s Mammoth Museum y de la Universidad de Kinki de Japón, pondrán en marcha una investigación conjunta el próximo año. Su objetivo será el recrear este mamífero gigante.

Su estrategia se basa en la manipulación del ADN de un óvulo de elefante, con la muestra obtenida de la médula de los mamuts. Así, sería posible la reproducción. Los científicos implantarán los embriones en el vientre de un elefante, ya que las dos especies son parientes cercanos.

Según el grupo de investigadores, encontrar núcleos sin ningún gen dañado es esencial para la técnica de transplante. Para los científicos, esta tárea ha sido todo un reto, desde que iniciaron su investigación desde finales de 1990. Hay que recordar que los mamuts se extinguieron hace unos 10.000 años. Sin embargo, el descubrimiento del pasado agosto del hueso de un muslo bien conservado en Siberia, ha aumentado las posibilidades de una clonación exitosa.

Vía | Kyodo News

Nuevo récord en las emisiones mundiales de dióxido de carbono

Nuevo récord en las emisiones mundiales de dióxido de carbono:

Pollution
De acuerdo con las últimas cifras obtenidas por un equipo internacional de investigadores, las emisiones mundiales de dióxido de carbono debidas a la quema de combustibles fósiles, han aumentado en un 49 por ciento desde 1990 (año de referencia por Protocolo de Kyoto).

Esta investigación ha sido llevada a cabo por el Tyndall Centre for Climate Change Research de la Universidad East Anglia (UEA) y ha sido publicada en la revista Nature Climate Change.

En promedio, las emisiones de combustibles fósiles han aumentado un 3.1 por ciento cada año entre 2000 y 2010, lo que supone tres veces la tasa de crecimiento durante la década de 1990. Se prevé que seguirá aumentando en un 3.1 por ciento durante 2011.

Las emisiones totales —que combinan la combustión de combustibles fósiles, la producción de cemento, deforestación y otras emisiones de uso de la tierra— alcanzó los 10 mil millones de toneladas de carbón en 2010. La mitad de estas emisiones se mantuvieron en la atmósfera, donde la concentración de dióxido de carbono alcanzó 389,6 partes por millón. Las restantes fueron a parar,en proporciones aproximadamene inguales, al mar y a reservas de tierra.

A pesar de estar todavía sufriendo las consecuencias de la crisis que estalló en 2008, cuando las emisiones disminuyeron temporalmente, el alto crecimiento del año pasado se debió a las economías emergentes y desarrollados. Los países ricos continuaron externalizando parte de sus emisiones a las economías emergentes a través del comercio internacional.

Los mayores contribuyentes a este crecimiento en 2010 han sido China, EE.UU. India, la Federación de Rusia y la Unión Europea.

El autor principal de la investigación, Dr. Glen Peters, del Centro de Investigación Internacional de Clima y Medio Ambiente de Noruega afirma:

Muchos vieron la crisis finaciera global como una oportunidad para apartar la economía mundial lejos de las persistentes y altas emisiones, pero el retorno al crecimiento de éstas en 2010 sugiere que la oportunidad no ha sido aprovechada.

Vía | University of East Anglia
Más información | ‘Rapid growth in CO2 emissions after the 2008-2009 global financial crisis’, Nature Climate Change, December 4 2011

Se descubre un nuevo tipo de galaxias ‘rojas’

Se descubre un nuevo tipo de galaxias ‘rojas’:

Red Galaxies
En los lejanos confines del Universo, a casi 13 mil millones años luz de la Tierra, unas extrañas galaxias yacen escondidas. Envueltas en polvo y atenuados por la enorme distancia, ni siquiera el Telescopio Espacial Hubble es capaz de reconocerlas.

Fue gracias al NASA’s Spitzer Space Telescope —un observatorio espacial infrarrojo, que mantienen una órbita heliocéntrica que lo aleja de nuestro planeta unos 15 millones de kilómetros cada año— que pudimos descubrir no una, sino cuatro galaxias rojas. No obstante, aunque los astrónomos son capaces de describir los miembros de esta nueva “especie”, son incapaces de explicar su naturaleza rojiza.

“Hemos tenido que ir a los extremos para obtener modelos que coincidan con nuestras observaciones”, afirmó Jiasheng Huang del Harvard-Smithsonian Center for Astrophysics (CfA). Huang es el autor principal del artículo que anuncia el hallazgo y que ha sido publicado en la revista Astrophysical Journal.

Spitzer tuvo éxito donde fracasó Hubble porque el primero es sensible a la luz infrarroja —luz que está más allá de la parte visible del espectro electromagnético—.

Las galaxias pueden verse rojas por diferentes razones: pueden ser muy polvorientas, pueden contener muchas viejas estrellas rojas o pueden ser muy distantes. En este último caso, la expansión del universo extiende su longitud de onda y por lo tanto, los colores rojos —un proceso conocido como redshifting—. Todas estas posibilidades parecen poder aplicarse a las galaxias recién descubiertas.

Las cuatro galaxias descubiertas se agrupan cerca unas de otras y parecen estar físicamente asociadas, descartando una alineación fruto del azar. Debido a la gran distancia a la que se encuentran, lo que observamos es su aspecto mil millones de años tras el Big Bang, momento en el que se formaron las primeras galaxias.

“El telescopio Hubble nos ha mostrado algunas de las primeras protogalaxies que se formaron, pero nada parecido a esto. En cierto sentido, estas galaxías constituyen el eslabón perdido en la evolución de las galaxias”, afirmó el coautor de la investigación, Giovanni Fazio del CfA.

Vía | Harvard-Smithsonian Center for Astrophysics

Entrelazamiento cuántico macroscópico

Entrelazamiento cuántico macroscópico:

Consiguen entrelazamiento cuántico, a centímetros de distancia y temperatura ambiente, entre dos láminas de diamante de tamaño macroscópico.

Foto

Una de las láminas de diamante usadas en el experimento. Fuente: CQT.

En estas semanas se han producido varias noticias acerca de la Mecánica Cuántica, un campo que últimamente está experimentando un florecimiento debido a la posibilidad de que algún día se pueda conseguir la computación cuántica. Esto es una prueba de que para que un campo de la ciencia avance sólo se necesita financiación.

El caso es que según un resultado publicado en Science se ha conseguido el entrelazamiento cuántico a temperatura ambiente entre los fonones de dos láminas de diamante de milímetros de tamaño separadas nada menos que 15 cm entre ellas. Esto es algo asombroso dadas las escalas de tamaño implicadas, ya que no se trata ya de sistemas mesoscópicos, sino macroscópicos que se pueden ver a simple sin ninguna dificultad. El precio a pagar es que sólo pueden mantener este entrelazamiento unos pocos picosegundos.

Aunque se vienen observando entrelazamientos a distancias de centímetros o mayores entre partículas o fotones, ésta es la primera vez en la que se informa de algo así entre sistemas de tamaño milimétrico. El entrelazamiento a esta escala ejemplifica las dificultades de coexistencia entre el mundo microscópico regido por la MC y el mundo macroscópico regido por la Mecánica Clásica. Los átomos obedecen claramente las leyes cuánticas, mientras que los gatos o diamantes obedecen claramente la Mecánica Clásica. La realidad es que los objetos macroscópicos no suelen exhibir entrelazamiento o superposición de estados. Al menos nadie los había visto hasta ahora.

Normalmente esto se explica echando mano de la decoherencia, según la cual las múltiples interacciones entre el objeto y su entorno destruye la coherencia, la superposición y el entrelazamiento. En este caso, los estados cuánticos de los fonones en estos diamantes estarán sometidos a la interferencia de las fluctuaciones térmicas que destruirían toda posible coherencia cuántica y que harían que el sistema exhibiera sólo aspectos clásicos.

Recordemos que un fonón no es más que un estado de vibración en una red cristalina. Los fonones se pueden tratar como si fueran partículas cuánticas y de ahí la analogía fonética con los fotones. Digamos que en un sistema ideal de este tipo las láminas cristalinas de diamante pueden vibrar de una manera determinada, como si fuera un tambor. Pero al tratarse de un fenómeno cuántico no tendrán libertad total de vibración, sino que sólo ciertos modos de vibración estarán permitidos. Pero el calor no es más que una agitación de la red cristalina que puede destruir este fenómeno, sobre todo si tenemos en cuenta los tamaños implicados. Normalmente en otros experimentos de este tipo se enfría el sistema hasta cerca del cero absoluto de temperatura para que así el calor no dé al traste con la coherencia cuántica.

El entrelazamiento permite la famosa acción a distancia que tanto odiaba Einstein, de tal modo que, de alguna manera, dos partículas parecen “comunicarse” de algún modo entre sí de forma instantánea, aunque como no se transmite información no se viola la causalidad relativista. Esto es algo que se había demostrado experimentalmente con partículas.

Si mandamos dos fotones entrelazados en una superposición de estados de polarización uno hacia una estrella y otro hacia otra en sentido opuesto entonces hipotéticos alienígenas realizando la misma medida obtendrán el mismo resultado. Esto parece todavía más loco cuando quién de los dos realiza la medida primero depende del sistema de referencia. Ya lo dijo Richard Feynman una vez: “I think I can safely say no one understands quantum mechanics”. Así que el lector no debe preocuparse en exceso si no entiende bien el anterior párrafo.

Pues bien, Ian Walmsley, Ka Chung Lee y Michael Sprague (de las Universidades Oxford, Nacional de Singapur y del Consejo de Investigación Nacional de Canadá respectivamente) han conseguido que dos láminas de diamantes de 3 mm de ancho y 1 de grosor estén entrelazadas cuánticamente a 15 cm una de otra. Lo más increíble es que han logrado todo esto a temperatura ambiente. Por esta razón eligieron el diamante para este experimento. Los estados de vibración en las láminas de este material se dan a una frecuencia muy por encima de las oscilaciones térmicas y, por tanto, la coherencia cuántica se ve menos afectada por el calor.

Foto

Para poder inducir esas vibraciones y leerlas los investigadores usaron haces láser pulsados de pulsos ultracortos (de 100 femtosecondos). Además, al ser los diamantes transparentes, se facilitaban las medidas.

Un primer pulso láser inducía estados vibracionales en las láminas. Si las láminas de diamante se comportan como objetos cuánticos en este montaje entonces deben de compartir un modo de vibración entre ellas, es como si ambos diamantes estuvieran vibrando y no vibrando al mismo tiempo.

Para demostrar este entrelazamiento los investigadores lanzaban un segundo pulso láser justo un poco de tiempo después del primero. Este pulso extrae cierta energía que el primer pulso dejó ahí, que llegaría al detector como fotones con energía extra.

Si el sistema fuera clásico el detector encontraría esos fotones extraenergéticos sólo la mitad de las veces, pero en 200 billones de intentos los investigadores encontraron casi siempre esos fotones extraenergéticos. La estadística que tienen les lleva a concluir que el sistema se comporta cuánticamente con un nivel de confianza del 98%. La parte negativa es que el entrelazamiento en este sistema sólo lo pudieron mantener durante una fracción de tiempo muy pequeña (se podría bromear y decir que la vibración de los diamantes no es para siempre). Pero quizás esto pueda ser mejorado en el futuro.

En experimentos previos con tambores de Schrödinger se trabajó, como máximo, con láminas de 0,06 mm de longitud al cero absoluto.

Este resultado difumina la frontera entre el mundo cuántico y clásico y nos habla de cómo el mundo clásico emerge del cuántico. Además, apunta a que algún día pueda ser posible la realización de la computación cuántica de un modo práctico, quizás incluso en un dispositivo de estado sólido a temperatura ambiente.

Por otro lado, ya se especula con un tambor de Schrödinger hecho con grafeno que experimente efecto túnel.

Esperemos que los políticos (o sus asesores) sigan creyendo que es posible la computación cuántica y que así financien este tipo de investigación básica, tipo de investigación que nunca se hace en las “empresas”, algo que no está mal recordar en estos tiempos en los que la democracia y lo público ha dejado paso a los “mercados”.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3674

Fuentes y referencias:

Artículo original.

Samsung tiene preparado un nuevo chip de doble núcleo a 2GHz para el 2012

Samsung tiene preparado un nuevo chip de doble núcleo a 2GHz para el 2012:

Samsung no quiere quedarse atrás con respecto a NVIDIA y Qualcomm, por lo que se han puesto manos a la obra para desarrollar el nuevo Exynos 5250 SoC. Un chip que está basado en Cortex-A15 y que ofrecerá una potencia 2 veces mayor a la de los actuales Exynos. Veremos como aguantan las baterías llevando semejantes bestias pardas.

Contará con 2 procesadores ARM Cortex A15 a 2GHz y una GPU que soporta pantallas 3D y una resolución de hasta 2560×1600.

Al parecer, gracias a usar en su fabricación un proceso HKMG de 32nm de baja energía, podrá mejorar al doble el rendimiento de los actuales chips a 1,5GHz basados en Cortex A9.

Por ahora no se sabe cuando estarán disponibles de manera concreta, pero en Samsung anuncia que lo usarán para sus tablets de gama alta, planeándose su producción en masa para algún momento del segundo trimestre del año que viene.

¿Podrán vérselas con Kal-El, el procesador Tegra de 4 núcleos? Pues si no le ponen kriptonita no tengo muy claro si supondrá un digno adversario. [SammyHub]

Fuerza Aérea de Estados Unidos extiende la misión de su prototipo X-37B

Fuerza Aérea de Estados Unidos extiende la misión de su prototipo X-37B:

X-37BLandingTN

En marzo de este año la Fuerza Aérea de Estados Unidos envió al espacio un segundo prototipo de su mini transbordador X-37B, en una misión calificada como secreta y que debía finalizar durante esta semana (la fecha exacta no se dio a conocer).

Ahora es la propia Fuerza Aérea la que informa sobre la extensión de la misión del X-37B, aunque sin explayarse sobre las características propias de la misión ni tampoco la nueva fecha cuando el mini transbordador debiese aterrizar.

Recordemos que la Fuerza Aérea de Estados Unidos cuenta con dos prototipos del X-37B (por lo menos esa es la información que se maneja), los que fueron fabricados en conjunto con la compañía Boeing.

A diferencia del transbordador espacial el X-37B requiere de un cohete Atlas V para alcanzar la órbita terrestre, lugar en el que puede permanecer durante meses debido a que no requiere de una tripulación para su operación, siendo controlado de forma remota desde la Tierra.

Fue el año pasado cuando salió a la luz la existencia de este prototipo, luego de que el primer X-37B completara de manera exitosa su primera misión aterrizando sin problemas en la base de Vandenberg (California) transcurridos siete meses desde que alcanzó la órbita terrestre.

Click aqui para ver el video.

Link: Secretive X-37B Robotic Space Plane Receives Prolonged Mission (DailyTech)

La hipótesis de LUCA el mega-organismo

La hipótesis de LUCA el mega-organismo:

LUCA pudo ser una sopa de intercambio genético a escala global que formaría algo así como un mega-organismo.

Foto

Imagine el lector que disponemos de una máquina que nos permita movernos hacia atrás en el tiempo. Esto preservaría la causalidad siempre y cuando no interfiriéramos para nada en el pasado, ni siquiera con los posibles fotones que nuestros sistemas de visión restasen de esos tiempos pretéritos.

Aquellos a los que les guste las humanidades o la Historia seguro que les encantaría ver la revolución industrial, las batallas napoleónicas o el descubrimiento y conquista de América. A los historiadores de la ciencia les gustaría ver la revolución del conocimiento que creó la Física Moderna a principios del siglo XX, o ver el proceso a Galileo (¿dijo o no dijo eso de “eppur si muove”?), la expansión de la imprenta o la difusión de la aritmética.

A los que nos gusta la ciencia quizás nos apasione más otras cosas. Con esa máquina imaginaria podríamos ver a nuestros antepasados salir de la jungla hacia la sabana y conquistar el mundo, ver la Tierra virgen que había antes de que el hombre osara destruir la Naturaleza, un mundo cruel y perfecto. Ver la aparición de las praderas de hierba por primera vez y los rumiantes caminado sobre ellas. Comprobar la verdadera causa de la desaparición de los dinosaurios o ver la aparición de las flores y contemplar cómo todo se cubría de color.

Mientras que viajáramos hacia atrás en el tiempo podríamos ir estudiando las especies de animales y plantas, probablemente sorprendentes y maravillosas, que no nos dejaron fósiles. Podríamos reconstruir una verdadera Historia del mundo de lo vivo. Nos encontraríamos con sorpresas que nunca habríamos sido capaces de imaginar.

Según fuéramos más hacia atrás en el tiempo podríamos apreciar cómo se mueven los continentes y cómo la Luna parece más cercana, aunque sepamos que no lo podemos notar. Las montañas erosionadas el siglo XXI se alzarían majestuosas para disminuir luego su altura según las placas continentales dejaran de colisionar. Una tectónica que siempre ha condicionado la vida en la Tierra.

Veríamos la gran extinción del Pérmico, la madre de todas las extinciones, y la agonía de casi todas las especies de seres que en ese momento habitaban este mismo mundo. Más atrás aún llegaríamos al Carbonífero con sus bosques húmedos, cálidos y pantanosos sobre los que sobrevolaban libélulas gigantes. ¿Qué otras especies extrañas nos encontraríamos allí?

Conforme viajáramos aún más atrás en el tiempo vemos la explosión del Cámbrico y las razones por las que se dio. Y aún más atrás la famosa fauna de Ediácara. Por fin sabríamos qué clase de criaturas eran y podríamos contemplar muchas de las especies contemporáneas que nunca conocimos.

Aun más atrás hay sólo vida microbiana, y épocas en las que el planeta está cubierto casi al completo por el hielo. Las únicas estructuras biológicas visibles a simple vista serían los estromatolitos.

Con nuestros instrumentos podríamos estudiar y ver esa vida microbiana y comprobar cómo consiguió enriquecer la atmósfera con oxígeno, gas que permitió la aparición más tarde de la vida animal.

Esos mismos instrumentos nos permitirían analizar la aparición de las distintas rutas metabólicas o de la fotosíntesis. Y por último podríamos ver cómo apareció la vida en la Tierra. Todos los seres vivos que ha habido después, todos los descritos en este viaje imaginario, son descendientes de esa primera forma de vida independiente.

Aquí termina nuestro viaje y las descripciones de la vida que sabemos había en cada momento. No podemos decir mucho sobre esa primera vida porque la realidad es que no se sabe cómo apareció la vida en la Tierra. Una vez se tienen células y una evolución darwiniana es muy fácil explicar el posterior desarrollo de la historia biológica, pero la aparición de vida supuso un punto de inflexión absoluto. No sabemos, ni siquiera, si esa aparición de vida fue inevitable o algo milagroso desde el punto de vista estadístico. A esa primera forma de vida la hemos llamado LUCA (last universal common ancestor), aunque por aquí un comentarista propuso que se le llamara PACU (Primer Ancestro Común Universal).

Hace 2900 millones de años que LUCA se escindió en los distintos dominios de la vida: bacterias y arqueas, y más tarde se dio lugar a los más complejos eucariotas que a su vez dieron lugar a las plantas y animales. Pero es difícil saber lo que paso antes de esa separación primigenia. No hay fósiles que nos guíen.

Hay ideas que no importa que sean verdad o que nunca se pueda comprobar si son válidas o no, son tan bonitas que excitan nuestra imaginación. Según una nueva hipótesis, hace 3000 millones de años el planeta en su conjunto era un sólo organismo, un mega-organismo como nunca se había visto, como nunca se vería posteriormente. Ese organismo rellenaría los océanos terrestres de la época y finalmente dio lugar al antepasado que todas las formas de vida que ha habido en la Tierra hasta el presente, incluidos nosotros mismos. Esta hipótesis surge de los esfuerzos por explicar cómo pudo ser LUCA.

Según esta idea LUCA sería el resultado de una forma de vida global que lucho por sobrevivir en los océanos primigenios. Éstos eran una sopa de intercambio genético a escala global durante cientos de millones de años. Las células lucharían por sobrevivir por ellas mismas intercambiando partes útiles con las demás sin competir entre ellas, creando una especie de mega-organismo. Esta nueva idea proviene de Gustavo Caetano-Anollés de University of Illinois en Urbana-Champaign.

Mientras que los genes pueden cambiar rápidamente, la estructura de las proteínas que codifican es más resistente al cambio. Recordemos que la función de una proteína depende de esa estructura tridimensional. Muchas de las mutaciones que cambian una o varias bases no tienen ningún efecto en la estructura terciaria de la proteína. Según este investigador, si asumimos esto podemos apostar que muchas de las proteínas esenciales actuales tenían que tener una estructura muy similar en LUCA, aunque su secuencia de aminoácidos fuera distinta. Caetano-Anollés llama “fósiles vivientes” a esas estructuras proteicas y como su estructura nos dicta su función podrían decirnos cómo pudo ser LUCA.

Este investigador buscó en las bases de datos de 420 organismos modernos en busca de estructuras comunes a todos ellos para reconstruir las proteínas que una vez formaron LUCA. Sólo un pequeño porcentaje era común a todos ellos y asumió que se habían conservado desde los tiempos de LUCA.

Según esto LUCA tenía enzimas para degradar azúcares y para extraer energía de nutrientes. Pero a la vez carecía de las enzimas necesarias para construir y leer ADN [1]. Este resultado es similar al alcanzado por Wolfgang Nitschke del Instituto Mediterráneo de Microbiología en Marsella.

Anthony Poole, de University of Canterbury en Christchurch (Nueva Zelanda), ha estudiado las enzimas ribonucleótiodos reductasas, que construyen los bloques de ADN y tampoco ha encontrado pruebas de que LUCA las tuviera [2].

Si LUCA estaba formado por células, entonces éstas tendrían membranas. Según Armen Mulkidjanian, de la Universidad de Osnabrück, eran membranas isoprenoides muy simples y más permeables que los actuales diseños [3]. Para llegar a esa conclusión ha seguido la historia evolutiva de esta parte celular.

LUCA probablemente tenía también orgánulos. Porque, aunque se creía que éstos eran exclusivos de los eurcariotas, en 2003 se encontró un orgánulo en bacterias y recientemente también en arqueas por el propio Caetano-Anollés. Estos orgánulos, denominados acidocalcisomas, se encuentran, por tanto, en los tres dominios de la vida y por consiguiente también se encontrarían en LUCA [4].

Así que LUCA tenía un metabolismo, orgánulos internos simples y una membrana bastante permeable, pero carecía de ADN. Así que es posible, como siempre se ha hipotetizado, que LUCA estuviera basado en el ARN. El ARN, además de portar información, puede catalizar reacciones bioquímicas.

Según Massimo Di Giulio, del Instituto de Genética y Biofíisca de Napoles, LUCA tuvo que ser “progenote”, con escaso control sobre las proteínas que fabricaba. Los progenotes pueden hacer proteínas usando genes como una plantilla, pero el proceso es propenso al error y las proteínas obtenidas pueden ser distintas a lo que especifica el gen. Di Giulio y Caetano-Anollés dicen haber encontrado pruebas de que el sistema para sintetizar proteínas con precisión apareció mucho después que LUCA.

Según Caetano-Anollés, las células que componían LUCA tuvieron que compartir genes y proteínas unas con las otras para poder sobrellevar esta condición. Moléculas nuevas y útiles podían haber pasado de una a otra célula sin mediar competición hasta conseguir un sistema globalizado. Cualquier célula que se saliera del juego estaba condenada. Era más importante cooperar que competir. Según Caetano-Anollés esta falta de competición y libertad de intercambio hicieron que el océano primordial funcionara esencialmente como un único mega-organismo.

Otros investigadores encuentran plausible que se compartieran genes, enzimas y metaboilitos a través de esas membranas permeables, sobre todo porque se ha podido comprobar en comunidades microbianas actuales ese intercambio genético sin el cual no pueden sobrevivir. Aunque, naturalmente, esta hipótesis es muy difícil de demostrar.

Una vez que las células de esta sopa empezaron a ser cada vez más independientes el mega-organismo desapareció para dar lugar a células independientes que competían bajo las reglas darwinistas de la evolución y la vida ya nunca volvió a ser la misma. Ese evento se daría hace 2900 millones de años, justo cuando apareció por primera vez el oxígeno libre en la atmósfera.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3672

Fuentes y referencias:

New Scientist.

Ilustración: NeoFronteras.

El oxígeno tendría más de 2480 millones de años en la Tierra

El oxígeno tendría más de 2480 millones de años en la Tierra:

O2

Un nuevo estudio sugiere que la aparición del oxígeno en la Tierra ocurrió hace 2 480 millones de años.

El grupo de investigadores dirigidos por el Profesor Kurt O. Konhauser de la Universidad de Alberta en Canadá publicó en la revista “Nature” que obtuvo las muestras a partir de las rocas de la región australiana de Pilbara.

Las bacterias de respiración aeróbica (como las cianobacterias) contribuyeron a la oxidación de la pirita liberando un ácido que disolvía las rocas y los suelos (ente ellos, el cromo), posteriormente estos minerales fueron arrastrados hacia los océanos a través del agua de lluvia.

A partir de este evento, los niveles de cromo se incrementaron drásticamente originando el Gran Período de Oxidación (evento en el cual apareció el oxígeno en la Tierra hace 2480 millones de años) acelerando el desarrollo de nuevas clases de bacterias.

“Tenemos un grupo de muestras de las formaciones de hierro bandeado y hemos analizado los isótopos de cromo así como de otros elementos porque así tendremos la evidencia más sólida acerca de la oxidación.” dijo el Profesor Mark E. Barley, co-autor del artículo.

Link: Oxygen ’2.48 billion years old’ (Phenomenica)

¿Predicción de terremotos gracias al ozono?

¿Predicción de terremotos gracias al ozono?:

Sugieren que se podría predecir terremotos gracias al ozono generado por las rocas al fracturarse.

Foto

Desde siempre se han contado historias sobre cómo ciertos animales presienten la llegada de un terremoto con bastante tiempo de anticipación. Se ha atribuido esta habilidad a distintos orígenes e incluso se ha negado tal habilidad. Pero la verdad es que, por desgracia, la ciencia no es capaz de predecir con tiempo suficiente la llegada de un seísmo. Sería increíblemente útil poder predecir estos eventos con tiempo suficiente como para disparar alarmas y que así la gente pueda escapar de una probable muerte. Por eso, muchos investigadores trabajan en encontrar alguna señal que sirva para ese cometido.

Según un estudio publicado en Applied Physics Letters, el ozono quizás podría servir de indicador. Este gas, cuya molécula está compuesta por tres átomos de oxígeno, no sólo se forma gracias a las descargas eléctricas de los rayos y relámpagos, sino que además parece que es emitido por las rocas que se fracturan debido a que están bajo presión.

Raúl A. Baragiola, de University of Virginia School of Engineering and Applied Science, preparó experimentos para medir el ozono generado al taladrar o triturar diferentes clases de rocas metamórficas como granito, basalto, gneiss, quarzo, etc. Diferentes rocas produjeron distinta cantidad de ozono, pero la riolita fue la que produjo la emisión más fuerte.

La presión en una falla subterránea aumenta un tiempo antes de que se produzca un terremoto. Esta presión fractura rocas y, presumiblemente, en el proceso se produciría ozono que se podría detectar.

Para poder distingue entre el ozono producido de ese modo y el que proviene de la atmósfera, lo investigadores realizaron los experimentos en atmósfera controlada del laboratorio con diferentes mezclas de gases entre los que había oxígeno, nitrógeno, helio y dióxido de carbono. El ozono producido por las rocas en facturación se generaba cuando había átomos de oxígeno, oxígeno puro o dióxido de carbono. Los resultados obtenidos indican que la fractura de rocas se podría medir a partir de medidas sobre el ozono.

Baragiola empezó a estudiar si los animales eran capaces de presentir lo terremotos y se preguntó si quizás eran capaces de detectar ozono y reaccionar en consecuencia. Se le ocurrió que si la fractura de rocas producía ozono entonces éste podría servir a los animales como indicador de actividad sísmica. Aunque no parece que haya conseguido demostrar este punto.

“Si en futuras investigaciones muestran una correlación entre el nivel de ozono a nivel del suelo cerca de fallas geológicas o terremotos, una formación de detectores de ozono interconectados pondrían vigilar patrones anómalos cuando la roca fracturada induce la liberación de ozono desde el subsuelo y grietas superficiales”, dice. “Semejante formación, localizada lejos de áreas con altos niveles de ozono superficial podría se útil para proporcionar una alarma de terremoto.” Recordemos que el ozono también se forma por la actividad humana y constituye una forma de contaminación.

Baragiola añade que la detección de un aumento de ozono superficial podría además ser útil para la anticipación de desastre durante la excavación de túneles, corrimientos de tierras y en minas.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3671

Fuentes y referencias:

Nota de prensa.

Artículo original.

Foto: Oregón State University.

El Kilobot: Un robot del tamaño de una moneda

El Kilobot: Un robot del tamaño de una moneda:

k1

Si bien estamos acostumbrados a ver diferentes modelos de robots con tamaños relativamente grandes, la tecnología actual permite el desarrollo de otra clase de dispositivos mucho más pequeños y que de igual forma cumplen con el criterio para ser llamados robots.

Así, un área de investigación en la Universidad de Harvard, Estados Unidos, ha creado el llamado Kilobot, una máquina del tamaño aproximado de una moneda y que es capaz de funcionar en masa con otros Kilobots para ejecutar acciones masivas y sincronizadas.

Este invento tiene tres patas rígidas y puede caminar gracias a dos motores de vibración, así como también posee un chip central que lo controla, un sensor infrarrojo para recibir instrucciones remotas, una batería de reloj que le da autonomía por hasta tres horas y finalmente, un pequeño foco LED para iluminar.

Con esto, Kilobots en masa pueden generar secuencias de luces o avanzar en diferentes direcciones, todo hecho al mismo tiempo sin importar cuántos de ellos hayan, gracias a la recepción de instrucciones enviadas por una computadora externa que puede programarlos cientos de ellos en no más de 35 segundos, enviando la información mediante una señal infrarroja.

Ahora, si bien a simple vista cuesta imaginarse una buena utilidad para los Kilobots, los investigadores aseguran que estos aparatos pueden ser enviados en masa para labores de exploración en territorios hostiles, tareas de búsqueda y hasta para la limpieza de restos tóxicos en caso de un desastre químico, todo sin un gran sacrificio monetario.

Porque a diferencia de otros robots, construir un Kilobot tiene un valor de solamente $15 dólares, lo que representa una alternativa muy interesante para investigar sus utilidades en misiones como las recién descritas y sin gastar demasiado dinero.

¿Quieres ver cómo funcionan en acción? Video a continuación:

Click aqui para ver el video.

Link: Tiny Kilobots to go on sale (gizmag)

e-planning.net ad

Físicos suecos crean luz de la nada [Veredicto: y se hizo la luz]

Físicos suecos crean luz de la nada [Veredicto: y se hizo la luz]:

Fiat Lux.

Con esas palabras se hizo la luz, al menos según la Biblia. Pero en la Universidad Tecnológica de Chalmers en Gotemburgo (Suecia) han logrado una hazaña semejante. Al menos los científicos de ese centro proclaman haber creado luz de la nada, confirmando un efecto enunciado hace casi medio siglo.

El experimento consiste en capturar algunos de los fotones que aparecen y desaparecen en el vacío constantemente. Y es que a pesar de su nombre el vacío resulta que no está tan vacío.

Los científicos se refieren a ellas como “partículas virtuales“, y su caprichosa naturaleza hace que aparezcan y desparezcan, fluctuando dentro de la existencia.

Con ese concepto (“conceto”, que diría Pazos, el de “Airbag”) en mente estos científicos han logrado que algunos de esos fotones abandonasen su estado virtual y se convirtieran en fotones “reales”, es decir, en luz.

La teoría la enunció en 1970 el físico Gerald Moore y mantenía que esto ocurriría si dichos fotones pudieran rebotar en un espejo que se moviese a una velocidad tan alta como la de la luz, lo que se conoce como efecto Casimir y que hasta ahora no se había podido observar.

Como no es posible (al menos todavía) hacer que un espejo se mueva tan rápido los de Gotemburgo han utilizado un circuito superconductor que simula un espejo en movimiento, un componente de electrónica cuántica denominado SQUID (acrónimo en inglés de Dispositivo Superconductor de Interferencia Cuántica) extremadamente sensible a los campos magnéticos.

Al hacer que la dirección del campo magnético varíe miles de millones de veces por segundo el efecto era similar al de un espejo que vibra casi a la velocidad de la luz, con lo que del “vacío” comenzaron a aparecer fotones por parejas. Aparecen los fotones porque carecen de masa y no es necesaria mucha energía para “desvirtualizarlos”. Con más energía podrían aparecer (según los investigadores responsables del hallazgo) protones o electrones.

Estamos un poquito más cerca de lo que contó el gran Arthur C. Clarke en “Luz de otros días“.─[Nature vía ABC]

Nuevo tratamiento para la irradiación

Nuevo tratamiento para la irradiación:

Un experimento con ratones permite pensar en una posible terapia en personas que hayan sido irradiadas.

Foto

La radiación nuclear tiene dos tipos de efectos. Uno es el estocástico, que se da a bajas dosis, y que pueden desembocar en una mutación que produzca un cáncer o en otra que proporcione ventajas adaptativas a la especie. Es un efecto contingente que puede pasar o no, pero a mayor radiación recibida más boletos se compran en esa particular lotería en la que es más fácil perder que ganar. Los primeros investigadores que trabajaron con sustancias radiactivas terminaron muriendo de cáncer, entre otras razones porque desconocían todo esto. Incluso se vendieron “medicinas” fabricadas con radio.

El segundo efecto tiene una relación causa-efecto más directa. Si la radiación recibida es muy alta entonces es seguro que se producirán daños celulares que afectarán inevitablemente al individuo. Por encima de cierto límite incluso se producirá la muerte.

Durante el proyecto Manhattan tuvieron que averiguar la masa crítica del uranio, que era algo necesario para saber cómo construir una bomba atómica, pero que se desconocía. Además estaban interesados en disminuir esa masa crítica (no era fácil conseguir suficiente cantidad de uranio 235) mediante reflectores de neutrones como el wolframio. En uno de los experimentos se iban añadiendo bloques de wolframio alrededor de un núcleo de uranio poco a poco hasta que el contador Geiger alertase de un incremento de la radiación, signo de que se estaba iniciando la reacción en cadena. Harry K. Daghlian, Jr. Dejó caer accidentalmente uno de esos ladrillos sobre el núcleo y no lo pudo retirar a tiempo. Se produjo un accidente de criticidad y recibió una dosis de radiación mortal que causó su muerte al cabo de 35 días. En otro experimento, Louis Slotin estaba trabajando con un núcleo de plutonio y una semiesfera de berilio (otro reflector de neutrones). La semiesfera se separaba del núcleo gracias a un destornillador que accidentalmente se quitó y dejó caer la semiesfera produciendo otro accidente de criticidad. Consiguió detener la reacción en cadena levantando rápidamente la semiesfera de berilio (lo que salvó a sus compañeros). Pero fue tarde para él, que también recibió una dosis letal de radiación que le mató en nueve días. La radiación recibida era equivalente a la que recibiría a 1500 metros de una explosión nuclear. En la sala había otros compañeros que estaban situados a distintas distancias y esto sirvió para establecer unos criterios sobre los efectos de la radiación en función de la dosis recibida.

Estos casos fueron los primeros de envenenamiento por radiación que se dieron y estudiaron. Es de suponer que las bombas atómicas lanzadas sobre Japón mejoraron esa estadística.

Los efectos que las personas muestran cuando reciben una cantidad elevada de radiación dependen de la dosis y de cada individuo. Entre los efectos que se pueden citar están: nauseas, vómitos, fiebre, mareos, debilidad, vómitos de sangre, diarrea, dificultades en la respiración, infecciones… La capacidad del cuerpo de fabricar sangre, el sistema nervioso, el sistema inmunitario, el tracto digestivo, los pulmones y el sistema cardiovascular se ven afectados. Las bacterias y sus toxinas entran en el torrente sanguíneo a través del sistema digestivo o través de la piel. Los efectos de la radiación impiden la coagulación de la sangre y se inflaman todos los tejidos del cuerpo. A altas dosis de radiación se produce necesariamente la muerte.

Todo esto viene a colación por un resultado nuevo sobre cómo evitar la muerte si se recibe mucha radiación. Al parecer una combinación de medicamentos aumenta mucho la esperanza de vida en ratones que han sido fuertemente irradiados. El estudio ha sido realizado por el Dana-Farber Cancer Institute y el Children’s Hospital de Boston.

Los estudios en ratones sugerían hasta ahora que las potenciales terapias sobre humanos sólo funcionarían si se administran a los pocos minutos u horas de la exposición a la radiación, por lo que no serían prácticas en el caso de que se diera una irradiación masiva sobre la población, como puede ser un accidente en una central nuclear o un ataque terrorista. El nuevo estudio sugiere que una nueva combinación de fármacos podría tener una ventana temporal de uso mucho mayor.

En el artículo publicado en Science Translational Medicine los investigadores implicados describen los beneficios aportados en ratones irradiados de una combinación de un antibiótico conocido como fluoroquinolona y una versión sintética de la proteína humana BPI que juega un papel en las infecciones. Los ratones recibieron el tratamiento un día después de haber sido irradiados. Fueron sometidos a 7 gray, una dosis que es letal en un 95% de los casos en ratones en un plazo de 30 días.

Además del grupo de control, que no fue tratado pero sí irradiado, hubo otros grupos en los que sólo se les administró uno de los fármacos. Al cabo de un mes el resultado fue fatal tanto para los ratones del grupo de control como para los que recibieron sólo uno de los medicamentos. Sin embargo, sobrevivieron casi el 80% de los tratados con la combinación de los dos.

También se encontró que la habilidad de generar células sanguíneas, algo que decae al recibirse radiación, se reanudó vigorosamente en los ratones tratados, lo que explicaría en parte el éxito en su supervivencia.

Como ambos medicamentos ya han sido probados con seguridad en humanos es presumible que su uso en personas para casos de irradiación también pueda tener éxito.

Los gobiernos podrían tener un protocolo de actuación para casos como el ocurrido hace poco en Fukushima que permita tratar rápidamente a la población o a trabajadores de una central nuclear accidentada.

Cuando en condiciones normales una bacteria o sus toxinas se introducen en el torrente sanguíneo el sistema inmunitario reacciona enviando a los neutrófilos para eliminar a los invasores. Los neutrófilos liberan una carga de BPI que pega a las endotoxinas, moléculas que están en la membrana de las bacterias. Esto ayuda a matar a la bacteria y disminuye la inflamación causada por la presencia de bacterias vivas o muertas, y esto es algo que un antibiótico por sí sólo no consigue.

Pero una persona sometida a una alta dosis de radiación ve disminuida su habilidad de producir neutrófilos (o desaparece) y se dan las condiciones para que las bacterias prosperen sin parar. Podemos decir que la radiación facilita la entrada de bacterias justo cuando el sistema inmunitario está caído.

Antes de realizar el experimento los investigadores implicados teorizaron sobre los beneficios de usar antibióticos, que ya se había mostrado su utilidad a la hora de destruir bacterias después de una irradiación, y la proteína rBPI21 (la versión sintética de BPI) que es efectiva a la hora de neutralizar las endotoxinas de las bacterias moribundas y, por tanto, evita el proceso inflamatorio.

Se inspiraron por lo observado en pacientes de cáncer que reciben radioterapia y un transplante de médula ósea. Si eran tratados con rBPI21 se recuperaban más fácilmente.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=3669

Fuentes y referencias:

Nota de prensa.

Artículo original.

Un nuevo chip capaz de transmitir a 1.5 Gigabits por segundo

Un nuevo chip capaz de transmitir a 1.5 Gigabits por segundo:

Rohm
Un grupo de investigadores de la empresa fabricante de semiconductres Rohm, junto a un grupo de científicos de la Universidad de Osaka, han construido un chip experimental capaz de alcanzar una velocidad de transmisión de datos inalámbricos de 1.5 gigabits por segundo (Gbps). Esto constituye un nuevo record mundial, al ser el primer semiconductor de poco tamaño en alcanzar esta cifra. Además, se planea que en un futuro cercano pueda llegar a alzancar los 30 Gbps.

Este experimento ha llamado la atención por la frecuencia de las ondas en las que trabaja: terahercios (100GHz-10THz), una parte del espectro electromagnético de una gran repercusión. Es la primera vez que se utiliza este rango de frecuencias para una comunicación en un dispositivo semiconductor de este tamaño.

Tal y como explica Rohm en DailyTech, este dispositivo podría desarrollarse en masa en unos tres o cuatro años, y su precio se estima en unos 1.3 dólares estadounidenses (USD), lo que supone un precio muy bajo para un dispositivo que trabaja en la banda de los terahercios.

Este dispositivo posee unas dimensiones de 2 centímetros de largo, por uno de ancho, incluyendo una antena integrada. “La investigación sobre la tecnología de los terahercios está recibiendo una creciente atención en todo el mundo”, asegura el grupo de investigadores de Osaka.

No obstante, una de las desventajas de trabajar en este rango de frecuencias es la interferencia atmosférica, lo que la limita en mayor medida a aplicaciones en interiores.

Vía | DailyTech

CompuLab Fit-PC3 aparece con AMD en su interior y precios desde 328 dólares

CompuLab Fit-PC3 aparece con AMD en su interior y precios desde 328 dólares:

Filed under: ,

Los mini PCs nunca dejarán de llamarnos la atención en Engadget. su reducido tamaño hace posible esconderlos en cualquier rincón de la casa, y lo mismo sirven como HTPC que como controladores de sistemas en centros de cómputo. Hoy nos toca hablarte del Fit-PC3 de CompuLab, que en un diseño diminuto y totalmente silencioso (porque carece de ventilador alguno), ofrece un APU AMD a 1 GHz de velocidad y gráficos Radeon HD 6290. Si de conectividad se trata, de “mini” no tiene nada, porque muestra orgullosamente puertos USB 3.0, eSATA, HDMI y DisplayPort. Las configuraciones varían en gran manera dependiendo de lo que busques, y lo mismo sucede con los precios, dado que se podrán adquirir empezando en 328 dólares y llegando hasta a unos 700.

Por ahora solamente están disponibles las unidades “piloto” (de prueba), por lo que recomiendan que los interesados esperen unas semanas más hasta que las versiones finales salgan a la venta.

[Vía SlashGear y ITechNews]

Read | Permalink | Email this | Comments

El rover Curiosity despega con destino a Marte (con videos)

El rover Curiosity despega con destino a Marte (con videos):

Filed under:

Durante muchos meses toda la información relacionada con el rover Curiosity ha llenado nuestra voluble imaginación. Pero esta vez, el motivo para hablar al respecto del robot explorador de la NASA no tiene ninguna relación con la ciencia ficción, sino con la realidad misma: el cohete Atlas V que lleva al rover en su interior ha despegado con total éxito desde Cabo Cañaveral en Florida.

La NASA opina que esta es la “misión más compleja que se ha hecho en la superficie de otro planeta”, y es que el Curiosity viaja cargado de todo tipo de instrumentos científicos para analizar el planeta Marte.

Puedes ver videos del despegue tras el salto, que incluyen la separación del cohete del vehículo que llevará al rover hasta Marte, donde se espera que pueda aterrizar en agosto del próximo año. También hemos incluido una animación que nos muestra el que sería un aterrizaje exitoso del robot, que como verás, a comparación con los rovers antiguos, no terminará rebotando sobre la superficie (el Curiosity es muy pesado como para intentar ese tipo de maniobra).

¡Que tengas un buen viaje, Curiosity!

Continue reading El rover Curiosity despega con destino a Marte (con videos)

Read | Permalink | Email this | Comments

Los electrodos de nanopartículas podrían hacer que en el futuro cercano nos “enchufemos a pilas”

Los electrodos de nanopartículas podrían hacer que en el futuro cercano nos “enchufemos a pilas”:

Quédate con este nombre, hexacianoferrato de cobre. ¿Complicado? Puede, pero gracias a él las energías renovables a larga escala tienen un aliado muy importante, ya que gracias a los cátodos fabricados con este material se podrían crear baterías baratas y con una increíble vida útil que las haría adecuadas para el uso como parte de la red eléctrica.

Si hasta ahora enchufábamos las baterías a la red eléctrica puede que en un futuro bastante cercano veamos casi lo contrario, baterías masivas que almacenen energía eléctrica obtenida de manera renovable y a las que se enchufe la red.

La culpa de todo esto la tiene el hexacianoferrato de cobre, que en unas pruebas realizadas por la Universidad de Stanford ha resultado un excelente candidato para la creación de cátodos en baterías enormes.

La estructura de los cristales permiten que iones de potasio hidratado puedan moverse libremente sin dañarlo, ofreciendo un 80% de su capacidad tras 40.000 ciclos de carga y descarga, y que además se realizan mucho más rápido gracias a que las partículas del material tienen sólo unos 100 átomos.

Según sus creadores esto supone baterías con una vida útil de unos 30 años. No servirán de mucho para pequeños dispositivos, pero si tendrán una grandísima utilidad para el tendido eléctrico.

El único problema es que ahora tienen que encontrar un material diferente para el ánodo, y aunque han encontrado algunos siguen buscando uno tan fácilmente fabricable a larga escala como el hexacianoferrato de cobre. [Nature Communications]

Diseñan un cerebelo artificial para que los robots imiten la forma humana de manipular objetos

Diseñan un cerebelo artificial para que los robots imiten la forma humana de manipular objetos:

artificialcerebelo

Hasta ahora los robots han sido un poco “torpes” a la hora de manipular ciertos objetos. Vamos, que no son tan precisos sus movimientos como los de los seres humanos. Pero esa realidad podría estar a punto de cambiar…

Un grupo de científicos de la Universidad de Granada (UGR), al sur de España, ha diseñado un “cerebelo artificial” que permite a los robots aprender a manipular objetos de forma mucho más precisa.

Y es que el sistema diseñado permite al robot “aprender” las características del objeto que se le presenta, como masa, inercia, resistencia que opone al movimiento; para luego asociarlas con otra serie de características casuales, como el color o la forma, lo que al final le ayudan a distinguirlo de otros objetos y le permite llevar a cabo una manipulación más exacta.

Bien sabemos que el cerebelo es una región del encéfalo cuya función principal es integrar las vías sensitivas y motoras, de forma que controla las órdenes que la corteza cerebral manda al aparato locomotor a través de las vías motoras. Vamos, que nos ayuda a coordinar los movimientos.

El cerebelo artificial diseñado permite al robot , entonces, la asociación entre las características del objeto, por lo que los investigadores explican que se puede entender como un proceso cognitivo llevado a cabo por el robot. Es por esto, que los responsables del proyecto han analizado cómo se realiza esta tarea para determinar cómo se pueden aprovechar estas capacidades “humanas” para el control de robots.

Destacan desde la UGR que este trabajo ha servido para desarrollar un simulador de redes neuronales al que han denominado EDLUT (http://edlut.googlecode.com), que está disponible a través de Internet, ya que ha sido liberado como software libre.

Y ahora bien, ¿qué ventajas representa esta investigación? Lo primero que destacan desde la Universidad de Granada es que gracias a este estudio se abre, a mediano plazo, la posibilidad de crear una nueva generación de robots capaces de interactuar con humanos sin que puedan provocarles daños físicos, mencionando por ejemplo a los robots industriales tradicionales, ya que podrán definirse nuevas estrategias de control para que el robot administre su fuerza, por ejemplo.

Destacan, además, que este estudio puede ir más allá de la robótica, y ser útil para el desarrollo de nuevos tratamientos para enfermedades relacionadas con el cerebelo, por ejemplo; así como la investigación de nuevos métodos de rehabilitación y lo que han llamado “prótesis inteligentes”.

De momento la investigación seguirá su curso, y se espera que se extienda hasta el año 2014, cuando se pretende obtener por primera vez un modelo completo y exhaustivo del cerebelo capaz de controlar en tiempo real sistemas robóticos. Honestamente creo que es un paso notable en la optimización de las capacidades de movimiento de los robots. Sin duda un granito de arena para la robótica… Vosotros ¿qué pensáis de este cerebelo artificial?

Link: Diseñan un cerebelo artificial que permite a los robots imitar la forma de manipular objetos de los seres humanos (UGR)

e-planning.net ad

Argentina: Se presentó el primer simulador de vuelo diseñado sobre plataforma Linux

Argentina: Se presentó el primer simulador de vuelo diseñado sobre plataforma Linux:

297638_2054836365931_1095216664_31768620_68059392_n

A pesar de que ya era conocido de manera informal, el primer simulador de vuelo desarrollado en Argentina fue presentado en forma oficial en el marco del VI Foro de las Sociedades Digitales 2011 organizadas por la fundación del mismo nombre y apoyada por Presidencia de la Nación.

El simulador funciona dentro de un avión IA-50 Guaraní reciclado en el Aeropuerto de Paraná y fue desarrollado por Walter Elías y su equipo, desde la ciudad de Oro Verde, provincia de Entre Ríos. El aeroclub de Paraná en conjunto con el equipo de Elías lograron adaptar el IA-50, que durante muchos años prestó servicio para el traslado de funcionarios de la gobernación de Entre Ríos, para convertir la experiencia del simulador en algo completo, inluyendo plazas para pasajeros.

El desarrollo del simulador tuvo un proceso de creación bastante atípico y casero. Con el LCD comprado por la madre de Walter más las notebooks y computadoras de cada uno de los integrantes del equipo se acondicionó el requerimiento de hardware para que utilice la plataforma. En vistas de los bajos recursos con los que contaba el proyecto, el software libre se convirtió en la opción válida para desarrollar la plataforma de software.

Así es como entra en el proyecto el Grupo de Usuarios de Linux (LUG) de Paraná, quienes colaboran con los conocimientos necesarios para montar el simulador, basado en GNU/Linux (distribución Ubuntu) y Flight Gear, el simulador multiplataforma de código libre que, según los especialistas, posee mayor nivel de realismo que los simuladores comerciales licenciados.

Click aqui para ver el video.

Durante la presentación del simulador en el evento AeroSport 2011 en el aeropuerto de Paraná, más de 400 personas visitaron el proyecto y participaron de una charla para conocer el proceso de construcción del avión y el motivo y ventajas de la utilización de software libre, charla que terminó con un hecho bastante inusual: El 99% de los asistentes desconocía que utilizar software licenciado copiado es una práctica ilegal.

Link: Primer simulador de vuelo multimedial de Argentina (LINUX) (SD2011)

Suecia activará la conexión a internet más rápida del mundo, de 120 Gbps

Suecia activará la conexión a internet más rápida del mundo, de 120 Gbps:

velocidad

¿Qué harías con una conexión de 120 Gbps? Un grupo de suecos está a punto de descubrirlo en el festival DreamHack en ese país – “la LAN party más grande del mundo”, según los récord Guinness. Durante la feria, Cisco y la operadora Telia activarán esta red, buscando romper el récord de utilización de capacidad de la red.

La idea es que todos los participantes del festival “aprovechen tanto como puedan la capacidad de la red” al mismo tiempo.

Cisco y Telia intentarán instalar una conexión de 300 kilómetros de largo entre Jönköping y Estocolmo, que podrá ser utilizada por unas 750.000 personas (en teoría al menos) a velocidades increíbles. El proyecto ha estado en construcción desde junio, con la instalación de una red de fibra óptica y con Cisco encargándose del hardware.

Para hacerse una idea, a 120 Gbps bajar una canción se demoraría 0,047 segundos. ¿Llegaremos a ver algo como así por este lado del mundo algún día?

Link: 120 Gigabit at DHW11 (Dreamhack)

Científicos logran crear una médula espinal a partir de células madre humanas

Científicos logran crear una médula espinal a partir de células madre humanas:

medula_espinal

Luego de un proceso de largo aliento y en el que los investigadores quemaron varios juegos de pestañas, un grupo de científicos de la Universidad de Florida Central finalmente consiguieron crear conectores neuromusculares en medio de músculos y células de médula espinal y sólo utilizando células madre.

El logro del equipo liderado por el bioingeniero James Hickman -que aparecerá en la edición de diciembre de Biomaterials- fue posible gracias a la colaboración de Herman Vandenburgh, profesor emérito de la Universidad Brown, que reunió las biopsias de células madre musculares de voluntarios adultos. Tras un detenido análisis, descubrieron que bajo las condiciones adecuadas las muestras podían combinarse con células de médula espinal para formar conectores (o uniones neuromusculares) que el cerebro utiliza para controlar los músculos del cuerpo.

Los ingenieros de la UFC describieron la técnica elaborada como un hito en el desarrollo de estos sistemas que estimulan funciones orgánicas y que tienen el potencial de acelerar de manera drástica la investigación médica y el desarrollo de medicamentos.

Link: A first — lab creates cells used by brain to control muscle cells (Medical Xpress)

Brian Eno compuso la melodía de Windows 95… en un Mac

Brian Eno compuso la melodía de Windows 95… en un Mac:

windows95theme-thumb-550xauto-77470

Ah, el viejo y fiable Windows 95… Todavía me despierto por las noches empapado en sudor al creer oír su melodía de inicio del sistema operativo.

Una sintonía que debemos al gran músico y productor Brian Eno… y al Mac en el que la compuso. Irónico, ¿verdad? Su metodología de trabajo consistió en recibir una lista de 150 adjetivos por parte de Microsoft que definirían la pieza, entre las que encontramos “sexy”, “provocativa”, “nostálgica” o “sentimental”. Y todo ello para 3,8 segundos.

¿Os produce alguna de esas sensaciones la melodía? Bueno, Eno mandó 83 composiciones diferentes para que los mandamases de Microsoft escogieran (las audiciones debieron ser verdaderas torturas).

Y cuándo le preguntaron a Eno si había compuesto el tema con un PC, esta es la respuesta que dejó:

“No, la escribí en un Mac. Nunca he usado un PC en mi vida; no me gustan”.

Ahí queda eso. Y el vídeo para los nostálgicos.

Click aqui para ver el video.

Link: Brian Eno composed the Windows 95 startup theme…on a Mac (dvice) Vía Gizmodo

El brazo robótico hinchable es asombrosamente poderoso

El brazo robótico hinchable es asombrosamente poderoso:

Pinche aquí para ver el vídeo

Si creías que el muñeco de Michelín era un blandengue por tratarse básicamente de un ser lleno de aire, estás muy equivocado, o al menos eso es lo que podemos sacar como conclusión de este brazo robot neumático.

No, con neumático no es que lleve actuadores neumáticos, sino que en sí es neumático, vamos, que ni tiene servos ni pistones ni nada, sólo bolsas de aire que se inflan y desinflan con un compresor y un sistema de válvulas.

La idea de este prototipo de Otherlabs es muy sencilla, el brazo está formado por bolsas de aire, que adquieren diferentes posiciones según como de infladas estén, permitiendo movimientos, aunque no muy precisos.

El caso es que gracias a esto se consigue un brazo robótico extremadamente ligero, barato, fácil de fabricar y reparar además de plegable. A pesar de ello, con presiones de tan sólo entre 50 y 60 psi y apenas un kilo de peso puede levantar varios cientos sin problema.

Su problema más grave, además de la falta de precisión, es que le faltan sensores que permitan detectar con detalle su posición y el entorno, por lo que es un poco tosco. Pero al menos si algún día les da por rebelarse bastará con usar agujas de punto para acabar con ellos. [Otherlab]

Desarrollan un chip inalámbrico terahertz capaz de transmitir datos a 30 Gbps

Desarrollan un chip inalámbrico terahertz capaz de transmitir datos a 30 Gbps:

Filed under:

Científicos de la universidad japonesa de Osaka junto con la firma ROHM han logrado un hito al desarrollar un diminuto chip inalámbrico que funciona en el rango terahertz y que facilita la transmisión de datos a 1,5 Gbps. El chip, que cuenta con unas dimensiones de dos centímetros de alto por uno de alto, es notablemente más pequeño que todos los desarrollos anteriores que emplean dicho rango. Con todo, los científicos nipones aseguran que podrán alcanzar los 30 Gbps, suficientes para transmitir vídeo en HD por toda la casa. Pero posiblemente lo más interesante de todo esto es que fabricar dichos chips resultará mucho más económico que las versiones anteriores. ROHM espera contar con versiones comercializables en tres o cuatro años.

[Vía TechCrunch]

Read | Permalink | Email this | Comments