Entradas de: Javier Blanque

La Mejor Metodología ‘Liviana’ de Desarrollo de Software: eXtreme Programming

Resumen preparado y traducido por Javier Blanqué
Segmentos del Libro “Extreme Programming Explained” – Kent Beck (Addison-Wesley – © 2000 – ISBN 20I-6I64I-6)
Las metodologías de desarrollo de software ‘Livianas’ ayudan en el Análisis y Diseño Orientados a Objetos y son ideales en ambientes con herramientas basadas en Java y programación Web. Son llamadas ‘Livianas’ (LightWeight), debido a que no producen demasiado overhead sobre las actividades de desarrollo, y no impiden el avance de los proyectos, ni obstruyen, poniéndose adelante. De ellas, la mejor –a nuestro criterio- es la llamada ‘PROGRAMACION EXTREMA’ (XP ó eXtreme Programming), que describimos en este artículo.
Esta metodología se basa en la idea de que existen cuatro variables que guían el desarrollo de sistemas: Costo, Tiempo, Calidad y Alcance. La manera de encarar los desarrollos avalados por este modelo de desarrollo es permitir a las fuerzas externas (gerencia, clientes) manejar hasta tres de estas variables, quedando el control de la restante en manos del equipo de desarrollo. Este modelo hace visibles de manera más o menos continua estas cuatro variables.
Bajo ciertas circunstancias, el aumento exponencial en los costos de cambiar el software a lo largo del tiempo puede ser contenido, si convertimos esta curva exponencial en una curva logarítmica, como lo demuestra la metodología XP (eXtreme Programming), entonces todas las viejas premisas acerca de la mejor manera de desarrollar software pierden toda validez. Premisas que proponían pensar todo ahora porque luego de ‘terminar’ el análisis y el diseño, los cambios serían mas costosos, y si el sistema ya estaba en producción serían aún mayores. Esto parte de la premisa falsa de que las etapas se acaban y los sistemas son estáticos. Lo que dicta XP marca la diferencia que permite realizar hoy el software que cubra las necesidades de hoy, para que cuando mañana se conozcan mejor las necesidades futuras, se realicen en el momento en que se necesiten. Utiliza una aproximación minimalista y de mejora continua.
Este modelo parte de la premisa de que los valores de corto plazo de los individuos generalmente colisionan con los objetivos sociales de mayor plazo. Las sociedades han aprendido a lidiar con este problema desarrollando sistemas de valores, protegidos por mitos, rituales, castigos y premios. Sin esos valores los humanos tienden a priorizar sus mejores intereses de corto plazo individuales. En el caso de XP estos valores son: Comunicación, Simplicidad, Realimentación, Coraje. Este es un conjunto mínimo y consistente de valores que permitirán hacer la vida más fácil del grupo, la gerencia y los clientes. Sirve tanto a los fines humanos como a los comerciales.
De estos cuatro valores recién mencionados, XP deriva una docena de Principios Básicos para guiar en su estilo de desarrollo de sistemas. La derivación de los principios esenciales es clara, desde las premisas anteriores: Realimentación rápida, Asumir la Simplicidad, El Cambio Incremental, Adherirse (Abrazar) al Cambio, Trabajo de Alta Calidad (desde ‘trabajo excelente’ hasta ‘trabajo increíblemente sobresaliente’). Luego podemos mencionar algunos principios no tan evidentes inicialmente como : Enseñar a Aprender, La Inversión Inicial Debe Ser Pequeña, Jugar Para Ganar, Hacer Experimentos Concretos (reduce la discusión que lleva a divagar), Comunicación Honesta y Abierta, Trabajar a Favor de los Instintos de la Gente y no Contra Ellos, Fomentar la Aceptación de Responsabilidad, Adaptarse a las Condiciones Locales, Viajar Liviano, Mediciones Honestas (por ejemplo, de grado de avance).
XP resuelve volver a lo básico. Al adherirnos a este modelo haremos todo lo que debemos para tener un desarrollo de software predecible, estable, pero no tendremos tiempo para hacer nada extra. Las cuatro actividades que guiarán el desarrollo serán : Codificar, Testear, Atender y Diseñar.
A continuación mencionamos las Doce Prácticas de XP que nos permiten realizar desarrollos de Alta Calidad, en Tiempo y Costo razonables:
  1. Jugar el Juego de la Planificación : Rápidamente determinar el alcance del próximo release, combinando las prioridades de negocios con los estimados técnicos. Cuando la realidad sobrepasa el Plan, adaptar el Plan.
  1. Hacer Pequeños Releases : Poner un sistema simple en producción rápidamente, entonces liberar nuevas versiones del mismo en un ciclo de desarrollo rápido, una por semana a una por mes. Cada ciclo no debería ser más largo.
  1. Hacer Historias y Usar Metáforas : Guiar todo el desarrollo del sistema a través de una Historia Compartida por el Equipo (o Metáfora) acerca de cómo trabaja (o debería trabajar) el Sistema.
  1. Diseñar Simple : El Sistema debería diseñarse de la manera más simple posible en cualquier momento dado. La complejidad extra es removida, tan pronto como es descubierta (ver Refactoring debajo).
  1. Probar – Testear : Los Desarrolladores continuamente escriben Testeos Unitarios, los cuales deben correr sin error para que el desarrollo pueda continuar. Cuando se detecta un error en una corrida, su reparación pasa a ser la máxima prioridad para el Programador y/o el Equipo. Los Clientes (ayudados por Desarrolladores) escriben Tests Funcionales para probar qué funcionalidades están terminadas de acuerdo a sus expectativas.
  1. Rearmar – Refactorizar : Los Desarrolladores reestructuran el sistema sin cambiar su comportamiento para remover duplicación de código, mejorar la comunicación, simplificar el código, o agregar flexibilidad.
  1. Programar por Pares : Todo el código desarrollado es escrito por dos desarrolladores sentados frente a una única estación de trabajo.
  1. Propiedad Colectiva : Cualquier integrante del Equipo puede cambiar cualquier código de cualquier parte del sistema en cualquier momento.
  1. Integrar Continuamente : El sistema se integra y se construye (por ejemplo, se compila), es decir, se unen sus partes, varias veces por día, hasta el extremo de integrar el sistema completo, cada vez que se termina una tarea.
  1. Semanas de 40 Horas : Trabajar no más de cuarenta horas por semana como una regla estándar. Nunca trabajar sobre-tiempo dos semanas seguidas; si esto es necesario, hay problemas más grandes que hay que descubrir.
  1. Cliente On-Site: Es condición esencial la inclusión de al menos un Cliente real, vivo, como parte del Equipo. Debe estar disponible Full-Time para responder preguntas e interactuar con el resto del Equipo.
  1. Usar Estándares de Codificación : Los Desarrolladores escribirán todo el código de acuerdo a reglas predeterminadas que enfatizarán la comunicación a través del código. Estos estándares serán simples de seguir y se seguirán a rajatabla.
Muchos se preguntan cómo pueden estas prácticas seguirse… La realidad es que no es recomendable seguir algunas de ellas y otras no, ya que cada Práctica soporta a las otras; XP es una unidad. Las debilidades de una son subsanadas con las fortalezas de otras.
Cómo puede Funcionar este Modelo de Desarrollo ?
El Juego de la Planificación:
No es posible comenzar el desarrollo con sólo un Plan Básico. No es posible modificar continuamente el Plan, eso tomaría demasiado y haría que los Clientes se enojen.
A menos que…
  • Los Clientes actualizan el Plan por sí mismos, basados en estimados provistos por los Desarrolladores.
  • Se tiene suficiente del Plan al comenzar, para dar a los Clientes una idea básica de qué será posible para el próximo año o dos.
  • Se hacen releases cortos de manera que cualquier error en el Plan llevaría unas pocas semanas de remediar, a lo sumo.
  • El Cliente se sienta con el Equipo y se siente parte del Equipo, Full-Time, de manera que podrían identificar cambios potenciales y oportunidades para mejorar el Proyecto rápidamente, agregando valor de negocio al sistema, de manera temprana.
Entonces quizás sí pueda comenzarse el Desarrollo con un Plan Simple e ir refinándolo continuamente mientras se avanza en el Proyecto.
Releases Cortos:
No es posible poner el Sistema en Producción después de unos pocos meses. Ciertamente no es posible hacer Releases del Sistema que van desde un ciclo diario hasta ciclos trimestrales.
A menos que…
  • El Juego de la Planificación haya ayudado a trabajar en las metáforas más valiosas, de manera que aún un pequeño sistema pueda tener buen valor de negocio.
  • Se integra continuamente, de manera que empaquetar un ‘Release’ para instalar en Producción, tendrá un costo mínimo.
  • El Testing continuo redujo tanto la tasa de defectos, que no es necesario ir a un lento ciclo de testeo, antes de permitir al software entrar en producción.
  • Puede hacerse un Diseño Simple, de manera de cumplir con los requisitos de este Release, no para cumplir todas las condiciones que pudieran surgir en un futuro lejano.
Entonces quizás sea posible hacer pequeños Releases, comenzando rápidamente luego que el desarrollo empezó.
Metáforas :
No es posible comenzar el desarrollo con sólo unas Metáforas, no hay suficiente detalle allí, y qué pasa si la Metáfora es equivocada ?
A menos que…
  • Rápidamente se obtenga feedback concreto de código real y testeos acerca de si la Metáfora está trabajando en la práctica.
  • El Cliente se siente confortable hablando del Sistema en términos de la Metáfora.
  • Se Refactoriza continuamente, refinando la comprensión de lo que significa la Metáfora y qué se entiende de ella, y haciendo de ésta un mapa cada vez más cercano a la realidad.
Entonces quizás pueda comenzarse el desarrollo con sólo unas Metáforas.
Diseño Simple :
No es posible diseñar sólo pensando en código que sea suficiente para este Release. En ese caso puede llegarse a un camino sin salida, que no permitiría hacer evolucionar de manera continua el Sistema.
A menos que…
  • El Equipo se acostumbre al Refactoring, de manera que hacer cambios no producirá preocupaciones.
  • Se tiene una Metáfora clara de manera que los futuros cambios de diseño tenderán a seguir un camino convergente con esa Metáfora.
  • Siempre se Desarrolla con un Socio (programación por pares) de manera que se trabaja con confianza en un diseño simple, visto y revisado por varios, no en un diseño estúpido.
Quizás entonces se pueda hacer avanzar el Sistema haciendo el mejor diseño para el Hoy.
Testing :
No es posible escribir todos los casos de prueba necesarios. Tomaría demasiado tiempo. Los Desarrolladores no escriben Tests.
A menos que…
  • El Diseño sea tan simple como puede ser, entonces escribir Tests no será tan difícil.
  • Siempre se Desarrolla con un Socio, de manera que si uno no puede pensar otro test, quizás su Socio pueda; y si su Socio está harto de escribir Tests, quizás uno pueda hacerse cargo del teclado otra vez.
  • El Equipo se sentirá bien viendo correr -sin cancelaciones- todos esos Tests.
  • El Cliente se sentirá bien acerca del Sistema, viendo todas sus Pruebas Funcionales corriendo y sentirá confianza acerca de los plazos comprometidos.
Entonces quizás los Desarrolladores y los Clientes escriban Tests. Además si los Tests automáticos no son escritos, XP no funcionará como metodología.
Refactoring :
No es posibe refactorizar el diseño de un Sistema todo el tiempo. Tomaría demasiado. Sería demasiado difícil de controlar, y seguramente rompería el Sistema.
A menos que…
  • El Equipo se acostumbre a la Propiedad Colectiva, de manera que ninguno se atemorizará por hacer cambios cuando y donde sea necesario.
  • Existen Estándares de Codificación, de manera que no es necesario traducir, ni reformatear el código antes de Refactorizar.
  • Se Programa por Pares, entonces es más fácil tener el Coraje de tomar el toro por las astas, cuando es necesario Refactorizar, cambiar algo. Así como es menos probable que al hacerlo se rompa otra cosa.
  • El Diseño es Simple, entonces Refactorizar no será tan complicado.
  • Hay Tests para correr, de manera que si algo se rompe, se sabrá enseguida.
  • Hay una Integración Continua, entonces si accidentalmente se rompe algo en otro lado, o el Refactoring produce conflictos con el trabajo de otros, se sabrá en unas pocas horas.
  • Todos están descansados, entonces tendrán más Coraje para Refactorizar y es menos probable que cometan errores.
Quizás entonces se pueda Refactorizar cada vez que se vea la chance de hacer al Sistema más simple, o para reducir duplicación de Código, o para comunicar el Código más claramente, o para agregarle flexibilidad.
Programación por Pares :
Es imposible escribir todo el Código de un Sistema en Pares. Sería demasiado lento. Y qué pasa si dos personas no se llevan bien ?
A menos que…
  • Los Estándares de Codificación reduzcan los conflictos de ‘Estilo’.
  • Todo el mundo esté fresco y descansado, reduciendo aún más la posibilidad de discusiones ‘no-productivas’.
  • Los Pares escriben los Tests juntos, dándoles la chance de alinear su Entendimiento antes de encarar el corazón de la implementación.
  • Los Pares tienen la Metáfora para ‘bajar a tierra’ sus decisiones acerca del diseño básico y la selección de nombres.
  • Los Pares trabajan sobre un Diseño Simple, de manera que ambos pueden entender qué está pasando.
Entonces quizás podría escribirse todo el código de Producción en Pares. Además la gente que Desarrolla sola tiende a cometer más errores, a que estos pasen in-detectados, a sobre-diseñar ‘ por si acaso ’ especialmente si no entendieron la Metáfora ‘del todo’. Además tienden a no persistir en las demás prácticas y volver a viejos hábitos y mañas, aún si no funcionaron antes; especialmente bajo presión.
Propiedad Colectiva :
Es imposible que todo el mundo esté cambiando cualquier cosa en cualquier lado. La gente estaría rompiendo código ya probado aquí y allá. Y el costo de integración crecería dramáticamente.
A menos que…
  • Siempre se Integre luego de un corto lapso de tiempo (diariamente), de manera que las chances de que haya conflicto bajen.
  • Los Tests sean escritos, y corridos continuamente, entonces la chance de romper algo accidentalmente baja.
  • Se Desarrolla por Pares, de manera que sea menos probable romper el código (por aquello de que dos cabezas piensan más que una). Los desarrolladores aprenden rápidamente que cosa pueden cambiar que sea redituable.
  • Hay una adherencia estricta a Estándares de Codificación, de manera que la gente no se pone a pelear por ‘dónde tienen que ir las llaves, o el begin y el end’.
Quizás entonces cualquiera podría cambiar código en cualquier parte del Sistema si ve la chance de mejorarlo. Además sin Propiedad Colectiva, la tasa de evolución del Sistema disminuye dramáticamente.
Integración Continua :
No es posible integrar luego de sólo unas horas de trabajo. La integración toma demasiado tiempo y hay siempre demasiados conflictos y posibilidades de romper algo accidentalmente.
A menos que…
  • Los Tests se puedan correr rápidamente de forma que todos sepan que nada se rompió.
  • La programación se realice por Pares, entonces habrá sólo la mitad de flujos de cambio en el Equipo para Integrar.
  • El Equipo hace Refactoring, entonces hay más piezas más chicas, y se reduce la posibilidad de conflictos.
Entonces podría integrarse después de unas pocas horas. Además si no se integra seguido, la posibilidad de conflictos y la gravedad de los mismos crecerá exponencialmente (y con ello el costo de la Integración).
Semana de 40 Horas :
Es imposible trabajar semanas de sólo 40 horas. No es posible crear suficiente valor de negocios en 40 horas.
A menos que…
  • El Juego de la Planificación esté alimentando el Proyecto de manera de identificar el trabajo más valioso a realizar.
  • La combinación del Juego de la Planificación y el testing reduce la frecuencia de sorpresas desagradables, donde el Equipo pasaría más tiempo del que se piensa.
  • Las Doce Prácticas de XP, vistas como un todo, ayudan a desarrollar a máxima velocidad, no hay posibilidad de ir más rápido.
Quizás entonces podría producirse suficiente valor de negocios en una semana de 40 horas. Además, si el equipo no permanece fresco y energético, no ejecutarán el resto de las Prácticas y comenzará la debacle.
Cliente On-Site :
Es imposible tener un Cliente Real en el Equipo, sentado allí todo el tiempo. Seguro puede producir mucho más valor de negocios en otro lado.
A menos que…
  • Pueda producir valor para el Proyecto ayudando a escribir los Tests Funcionales.
  • Pueda producir valor para el Proyecto tomando decisiones de prioridad y alcance en pequeña escala, de manera de guiar a los Desarrolladores diariamente.
Entonces quizás el Cliente pueda producir mayor valor de negocios para la Compañía contribuyendo al Proyecto. Además, si el Equipo no incluye un Cliente, deberán agregar riesgo al Proyecto planificando sin feedback y codificando sin realimentación desde el Usuario del Sistema (sin saber exactamente qué Tests son necesarios para satisfacer los requisitos, y cuáles no son necesarios y pueden ser ignorados).
Estándares de Codificación :
Es imposible pedir a todo el Equipo de Desarrolladores que se adhieran a un estándar común. Los Desarrolladores son profundamente individualistas y probablemente renuncien a participar en el Proyecto antes de dejar sus prácticas individuales.
A menos que…
  • El conjunto de Prácticas de XP los haga más propensos a ser miembros de un Equipo ganador. Uno que lleva los Proyectos a un final feliz.
Quizás entonces ellos podrán flexibilizar un poco su posición respecto del ‘Estilo’. Además, sin estándares de Codificación, fricciones adicionales salen a la luz en la Programación por Pares, que impiden el Desarrollo y reducen significativamente la velocidad en la Programación y el Refactoring.

Conclusión

Es posible identificarse con eXtreme Programming no sólo desde el punto de vista metodológico, sino casi filosófico. Existen dos tipos de empresas que desarrollan software, aquellas que venden ‘horas’, y aquellas que brindan productos funcionando. Si uno tiene la suerte de poder trabajar en Desarrollo de Software y le divierte hacerlo, no sería posible trabajar de otra forma, sale así. Al fin y al cabo, hay que ponerse del lado del Cliente que compra un sistema ya que lo que le interesa es verlo funcionar de acuerdo a sus necesidades, y no una pila de documentos que le explican como ‘será’ en un futuro lejano, siempre y cuando se cumpla la otra pila de documentos que explica las pre-condiciones para llegar.

La Seguridad en los Sistemas y en los Activos de Información: Porqué es importante tenerla presente

El Arte de la Guerra nos enseña que no debemos depender
de la posibilidad de que el enemigo no venga,
sino que debemos estar siempre listos a recibirlo.
No debemos depender de la posibilidad de que el enemigo no nos ataque,
sino del hecho de que logramos que nuestra posición sea inatacable.

El Arte de la Guerra, Sun Tzu


Introducción

Presentamos este documento como una introducción a los conceptos básicos de seguridad de la información. Aquí se hacen consejos, comentarios y se describen conceptos generales, que sirven para la vida diaria en un ambiente tecnológico como el que trabajamos y vivimos, que cada vez está mas “plagado” de dispositivos computacionales, ya sean éstos teléfonos móviles, computadores personales, consolas de videojuegos, cajeros automáticos y hasta automóviles y casas “inteligentes”.

Este documento no hace sólo al manejo de la seguridad de la información como parte del rol que todos tenemos en relación a nuestro trabajo, o dentro de la organización, sino que pone énfasis en nuestra vida diaria y en nuestros comportamientos rutinarios, porque nuestra actitud frente a la seguridad de la información no puede ser excepcional, ni cambia fácilmente, tampoco depende a largo plazo de dónde estemos, es básicamente una cuestión de costumbre, uno no puede tener una actitud pro-seguridad en el trabajo y displicente en casa, no es como ponerse un sombrero u otro. Esta actitud ni siquiera debería tener que ser “recordada” o “pensada”, sino que debiera acompañarnos en todo momento, casi como uno hace al manejar un automóvil, ya que es con la incorporación de la rutina y el automatismo que lograremos aplicar los procedimientos de prudencia y pro-actividad necesarios todos los días, y no sólo en instancias especiales, o como una conducta reactiva.

La seguridad de los sistemas de información nos involucra a todos, y no podemos dejarnos engañar porque “no somos un objetivo económicamente rentable en nuestro hogar, a diferencia de nuestro trabajo”, todos somos objetivos, en todo lugar y momento, no porque seamos rentables, sino porque detrás de un ataque informático, el 99% del tiempo, hay un programa o robot que no discierne, no es suficientemente inteligente para discriminar en sus objetivos, de forma que ataca sistemáticamente todos los dispositivos que puede alcanzar, por “fuerza bruta”, al estilo de “Terminator” en la primera película.

Seguridad de los sistemas de información en la vida diaria

Cualquiera que tenga en su casa una PC con conexión a Internet mediante banda ancha (cablemodem, adsl, wireless), recibe unos 200 ataques al día en promedio, de redes de “robots” o coloquialmente “bots” que no son otra cosa que PCs comunes de otros usuarios que ya han sido comprometidas y actúan a las órdenes de bandas de hackers-crackers que [generalmente] tienen motivaciones económicas. Estos “bots” exploran continuamente y de manera aleatoria, todas las direcciones de la red Internet. Los grupos que los controlan están a la búsqueda de información de cuentas bancarias, tarjetas de crédito, información personal, y cualquier otra cosa que puedan vender posteriormente, o de la que puedan sacar un beneficio. En el peor de los casos [para ellos], cuando la PC no tiene ninguna información de valor aparente, sirve como “puente” para atacar a otras PCs, ya sea de la misma casa, u organización donde reside, o en Internet.

Los múltiples aspectos a considerar en el resguardo de la información

Cuando hablamos de seguridad de los sistemas de información y de las redes de transmisión, no sólo nos referimos a protegernos de actos concientes o programados por parte de atacantes ocultos. Es importante considerar el ciclo de vida de la información que uno posee, como se crea la información, quién la crea (quién es el productor de la información), por cuanto tiempo hay que mantenerla, quién esta autorizado para ver esa información (el consumidor de la información).

De la misma manera, si vamos cambiando de máquina y primero tenemos una Apple II, luego una IBM PC con DOS, Luego una Compaq con Windows, luego una Macintosh, y finalmente un Google-Phone debemos asegurarnos de poder migrar nuestra información desde un dispositivo a otro, a través de diskettes, que primero fueron de 8 pulgadas, luego de 5 1/4 y luego de 3 1/2. Mas recientemente se popularizaron los Zip, los CD y los DVD de datos. De esta manera si tenemos que rescatar un CV o una novela “futura ganadora del premio Planeta”, desde un diskette de 8 pulgadas, hoy sería extremadamente difícil, no sólo porque hace rato que no hay computadoras con dispositivos con ese estándar, sino porque es probable que haya estado escrito / a en Wordstar, que es incompatible a nivel de formato de archivo con la mayoría de los programas de procesamiento de palabra actuales. En este tipo de problemas también hay que pensar, luego de la primera “iluminación” que surge del pensamiento: “guardemos nuestra información por si la necesitamos en el futuro”.

Actualmente el dispositivo mas costo-efectivo que puede utilizarse para generar copias de resguardo de la información es la lecto-grabadora de DVD, cuya capacidad presente, teniendo en cuenta los discos de doble capa (dual layer) es de unos 9 GB (DVD-DL: 9.000 MB), que nos permite guardar en un DVD virgen de entre 1 y 4 dólares de costo, el equivalente a mas de 9.000 libros de 400 páginas cada uno y casi 15 veces mas de información de lo que nos permitía la lecto-grabadora de CD desde hace unos 10-15 años (CD: 700 MB de capacidad). Una unidad de este tipo con interfase IDE para PC puede costar unos 40 dólares en Argentina en estos momentos. Así vemos que no se justifica bajo ningún punto de vista no guardar en un medio de este tipo la información que consideremos importante.

Esta tecnología será rápidamente reemplazada con unidades que combinen tecnologías de los dos futuros estándares de DVD, el DVD Blu-ray y el HD-DVD. Estas tecnologías tienen una capacidad a su vez mas de diez veces mayor que el DVD de doble capa actual (hasta 100 GB por ahora, o DVD-BR: 100.000 MB), que es la capacidad de un disco de PC actual de tamaño mediano (aunque ya hay discos de 1 TB o terabyte, es decir mil GB o un millón de megabytes). Lo que queremos decir con esto es que es algo muy costo efectivo guardar copias de respaldo de nuestra información, aún en casa, siempre tratando de elegir las unidades de mejor precio-performance y de ciclo de vida mas largo. En dos o tres años las lecto-grabadoras combinadas de DVD Blu-Ray + HD-DVD costarán lo mismo que las de doble capa ahora. Por ejemplo un CD de hace 15 o 20 años, todavía puede ser leído sin problemas por las mas nuevas lecto-grabadoras de DVD Blu-ray o HD-DVD. Es decir que estos dispositivos tienen una muy valiosa “compatibilidad hacia atrás”. Sin embargo siempre hay que tener en cuenta el formato lógico en que se grabaron los archivos y no sólo el físico. Por ejemplo, si los archivos fueron hace 20 años cifrados o encriptados por un programa que ya no existe mas, o donde la empresa que lo fabricaba quebró, y su formato era propietario, o si nos olvidamos las claves para su descifrado, en ese caso no tendremos información, que se convirtió en irrecuperable al momento de no poder ser rescatada, sólo quedan un montón de bytes sin sentido, aunque el CD se pueda leer sin problema alguno, tendremos los archivos, pero no sabremos qué contienen.

Así como es importante guardar copias de seguridad de nuestra información valiosa, también lo es saber dónde las guardamos, y no guardar las copias sólo en el mismo lugar donde guardamos el original de esa información. Pongamos un ejemplo hipotético, guardamos la información de backup al lado de la computadora, entran ladrones y se llevan la computadora, y también se llevan los backups ! Otro caso que podría darse es el siguiente: tenemos la computadora en un sótano y al lado guardamos los backups con toda la información. Hay una inundación y queda tan inservible la computadora como las copias de respaldo.

Como dice el dicho, mejor poner los huevos en distintas canastas. Si se cae una canasta, pueden sobrevivir los de las demás. Por eso es recomendable cuando uno hace una copia de respaldo, si el costo no es prohibitivo en dinero o en tiempo, hacer una segunda copia y enviarla a un lugar físico distinto.

La seguridad de la información y la atención al detalle

Como dijimos antes, la seguridad de la información esta en los detalles, no es tan importante gastar demasiado en máquinas potentes o en sistemas de protección ultra-sofisticados, como sí lo es el hacerse una rutina y seguirla siempre. Es muy difícil conseguir herramientas que a uno lo protejan de manera 100% efectiva y automática, aún contra sí mismo. Además esas herramientas sufren el paso del tiempo, dado que los atacantes están continuamente probando nuevos mecanismos para saltar esas protecciones, y debido a que poseen fondos prácticamente sin límite debido a sus ilícitos, ni soñemos con que se van a cansar. Lo mas importante es estar atento, usar el “buen sentido” y cooperar con el grupo humano mas cercano a uno, de forma de alertar ni bien se detecta algo fuera de lo común, o se intuye un patrón de comportamiento fuera de lo normal.

No hay sistema de seguridad perfecto, pero podemos – con muy poco dinero y un poco de cabeza – tener una infraestructura tecnológica mucho mas segura que nuestros vecinos, aunque sean vecinos ricos y hayan gastado mucho en “protección”, si ellos son desaprensivos al mirar lo que les rodea. Es cuestión de poner atención al detalle, leer entre líneas, ser un poco paranoicos y tener rutinas de protección que sigamos llueva o truene; y podemos mencionar como ejemplos triviales: correr el antivirus cada x tiempo, realizar backups periódicamente, verificar que las copias de respaldo efectivamente tienen copias de los archivos que queremos proteger y podemos leer su contenido, y enviar a sitios geográficamente separados de nuestro sitio principal – por ejemplo a la casa de un familiar – las copias extra de respaldo.

Los mecanismos de protección están y avanzan [mas o menos] al mismo tiempo que avanzan las amenazas, actualmente hasta es posible utilizar llaves USB para realizar copias de respaldo y usar Internet como “nube” de respaldo. Si la información esta cifrada con claves fuertes y algoritmos robustos mas o menos a prueba de crackeo, se puede utilizar hasta Internet [por ejemplo el espacio de Gmail, el mail de Google] como “disco virtual” de respaldo.

Es importante notar que una aproximación “multi-capa” a la seguridad de la información reforzará el ámbito donde se implemente, de forma inmediata, así por ejemplo, una PC con Windows XP conectada a Internet vía adsl o cablemodem, es una máquina fácilmente atacable y probablemente comprometida, aún teniendo habilitado y funcionando su firewall o cortafuegos estándar provisto por Microsoft.

En cambio si instalamos un pequeño Firewall-Router, aún de los mas baratos, por ejemplo, los mas chicos de marcas como CNET, D-Link o Linksys, que como sistema operativo usan un mini-linux y tienen una interfase visual Web, accesible desde el navegador, y pueden costar unos 30 a 60 dólares en casas del ramo, además vienen con conexión Ethernet para 4 a 8 máquinas en una pequeña red hogareña; este esquema mejorará notablemente la seguridad y permitirá aislar un sistema operativo altamente funcional como es Windows XP, pero a su vez complejo y con muchas vulnerabilidades de seguridad, de Internet, la red de redes, al menos en parte.

Recordemos que los ataques son realizados por programas robot, y en una conexión de banda ancha esto puede significar hasta 1000 ataques por segundo, son ataques automatizados y de “fuerza bruta” pero son muchas veces efectivos contra claves poco seguras o demasiado simples, o contra debilidades (defectos de programación) descubiertas en el sistema operativo. No es como si hubiera un humano del otro lado tipeando en un teclado a 50 palabras por minuto. El bombardeo de paquetes es muchísimo mayor, así como la velocidad de los ataques. La velocidad de acceso y robo de información en caso de éxito del ataque, es prácticamente instantáneo y muchas veces no se nota, no hay ninguna alerta, no hay aviso del éxito, sólo de los fracasos detectados y sólo si leemos obstinadamente los logs.

Conceptos de seguridad informática y de redes de transmisión

La seguridad es a la vez fascinante y compleja, por eso, más que se nada requiere:

Compromiso a todo nivel desde el propio usuario hasta el directivo mas alto, que permita que las políticas y procedimientos realmente se realicen y que haya una asignación adecuada de recursos.

Sentido Común o Buen Sentido, que siempre es el 80% [Ley de Pareto (1)] de toda estrategia correcta.

Asignación de (a) Recursos, (b) Tiempo y (c) Personal.

No existe la seguridad infinita o perfecta, siempre hay un trade-off. Por eso siempre conviene evaluar los riesgos, y tratar de cuantificarlos. ¿Hasta donde invertir? ¿Hasta donde proteger?

Existe tecnología adecuada para disminuir mucho los riesgos y las amenazas existentes, esta tecnología tiene un costo razonable, pero sin políticas, procedimientos, recursos, tiempo y personal, no servirá de nada invertir en ellas. En general las máquinas no funcionan (bien) solas y sin control, a la larga hacen algo que no queremos, o no hacen algo que queremos que hagan.

La Seguridad es una Tarea Compleja

No debemos dejarnos engañar por conceptos aparentemente auto-explicativos como “Confidencialidad”, “Autenticación”, “No-Repudio”, “Integridad”, ya que los mecanismos usados para cumplir esos requisitos son muchas veces altamente complejos, tanto la tecnología usada como las Teorías matemáticas en las que se basan, y continuamente hay avances en el campo que pueden hacer que soluciones aceptables hasta ese momento se hagan inmediatamente obsoletas.

Para desarrollar un mecanismo particular de seguridad o “algoritmo”, uno siempre debe considerar las contra-medidas potenciales. En muchos casos, las contra-medidas implican pensar el problema desde una óptica completamente distinta, explotando alguna debilidad inesperada en el mecanismo, o en la implementación (casi siempre es esto último).
Por lo dicho, los procedimientos usados para proveer determinados servicios parecen contra-intuitivos: a veces no es obvio que un particular requerimiento necesite medidas de seguridad tan elaboradas, es luego de evaluar varias contra-medidas que las medidas comienzan a tener sentido.
La conclusión es que a veces para aumentar la seguridad hay que complicar las cosas, aumentar las capas tecnológicas o producir alguna inconveniencia a los usuarios, que deberán realizar una actividad relacionada con la identificación, autorización o firma electrónica, que sin seguridad, no serían necesarias.
Los mecanismos de seguridad usualmente implican más de un protocolo o algoritmo particular. En general también requieren que los participantes estén en posesión de alguna información secreta (Ej.: una clave de cifrado o encripción), lo que a su vez genera toda una nueva problemática, sobre la creación, distribución, manutención y protección de esa información secreta.
También se descansa sobre protocolos de comunicaciones cuyo comportamiento puede complicar la tarea de desarrollar los mecanismos de seguridad. Por ejemplo si el funcionamiento adecuado del mecanismo de seguridad requiere que haya tiempos límite de tránsito de un mensaje del emisor al receptor, cualquier protocolo que introduzca tardanzas impredecibles puede hacer esos límites de tiempo imposibles de garantizar, y por lo tanto, se vuelve un mecanismo poco confiable.

Definiciones sobre Ataques, Mecanismos y Servicios

Ataque de (a la) Seguridad

Cualquier acción que comprometa la seguridad de la información que posee un individuo o una organización.

Mecanismo de Seguridad

Un mecanismo que esta diseñado para detectar, prevenir, o permitir la recuperación luego de un Ataque de (a la) Seguridad.

Servicio de Seguridad

Un servicio que mejora la seguridad de los sistemas de procesamiento de datos y la información que transfiere y mantiene un individuo o una organización. Los servicios sirven para contrarrestar los Ataques de Seguridad, y pueden estar compuestos de uno o mas Mecanismos de Seguridad, para proveer el servicio.

Servicios de seguridad, una clasificación útil

Confidencialidad

Asegura que la información existente en un sistema de computación o aquella que es transmitida, es accesible sólo por aquellos autorizados a su acceso.

Autenticación

Asegura que el origen de un mensaje o documento digital es correctamente identificado, lo cual asegura que la identidad provista en el documento como generador del mismo no es falsa.

Integridad

Asegura que sólo las partes autorizadas podrán modificar los activos de un sistema de computación y la información transmitida o almacenada. La modificación incluye escritura, cambios, cambios de estado, eliminación, creación, el bloqueo o reenvío de mensajes transmitidos.

No-Repudio

Asegura que ni quien transmite, ni quien recibe una transmisión, pueda negar la existencia de dicha transmisión.

Control de Acceso

Requiere que el acceso a los recursos de información pueda ser controlado para o por el sistema objetivo.

Disponibilidad

Requiere que los recursos del sistema sean accesibles cuando sea necesario a las partes autorizadas.

Amenazas de un “Cheater”

Violación de Privacidad o Secreto, con el propósito de ganar acceso no-autorizado a información o recursos.

Impostor” o Robo de Identidad, con el propósito de originar información fraudulenta, modificar información legítima, usar de forma fraudulenta la Identidad de otro para ganar acceso no-autorizado. Permite también la autorización fraudulenta de transacciones o su aprobación.
Evitar la responsabilidad por información falsa o modificada, que el impostor originó o transformó.
Reclamar haber enviado o recibido información que no fue enviada o recibida.
Reclamar no haber enviado o recibido información que fue en efecto enviada o recibida.
Ganar un nivel de acceso mayor al autorizado.
Uso de información privilegiada o clasificada para beneficio propio.
Envío de información encubierta oculta en un mensaje con información abierta.
Modificar los permisos de otros para que estos, sin conocimiento hagan o vean cosas a las que no deberían tener acceso.
Causar que otros violen los protocolos de información a través de brindarles información incorrecta.
Dañar la confianza en un protocolo a través de la aparente repetición de errores “de sistema”.
Prevenir la comunicación entre usuarios a través de la inserción subrepticia “ruido” en la información auténtica, para que ésta sea rechazada como falsa.

Tipos de Ataque

Hay cuatro tipos de categorías generales de ataque:

Interrupción

Cuando un recurso de un sistema es destruido, o se hace indisponible o inusable. Este es un ataque a la Disponibilidad del recurso. Ejemplos incluyen la destrucción de una pieza de hardware, como puede ser un disco rígido, cortar una línea de telecomunicaciones, o el deshabilitar un sistema de administración de archivos.

Intercepción

Cuando una parte no-autorizada gana acceso a un recurso. Este es un ataque a la Confidencialidad. Esta parte podría ser una persona, un programa o un computador. Ejemplos incluyen conectar dispositivos a una red de datos [privada] para capturar paquetes de transmisión, o la copia ilegal de archivos o programas.

Modificación

Cuando una parte no-autorizada no sólo gana acceso sino que modifica un recurso. Este es un ataque a la Integridad. Ejemplos incluyen cambiar valores en un archivo de datos o una base de datos, alterar un programa de manera que funcione distinto o haga otras cosas además de las que hacía, o modificar el contenido de mensajes transmitidos por una red.

Fabricación

Cuando una parte no-autorizada inserta objetos en el sistema. Este es un ataque a la Autenticidad. Ejemplos incluyen el agregado de filas o registros o paquetes de mensajes.

Amenazas Externas

Intrusos:

Hackers

Grupo de individuos con la capacidad de penetrar sistemas de información que tengan debilidades detectables, con vulnerabilidades no corregidas, mal administrados o configurados.

Generalmente grupos estudiantes o entusiastas de la informática.

Generalmente no alteran información vital para las organizaciones, aunque sí dejan mal parados a los administradores de los sistemas que atacan exitosamente y a las organizaciones atacadas.

Crackers

Grupo semejante a los Hackers, pero con más recursos, profesionales, con objetivos económicos, dedicados a actividades criminales, generalmente roban información económicamente valiosa, alteran sistemas para dañar organizaciones y son mucho más peligrosos, especialmente los que son menos detectables, ya que al no mostrar su presencia, impiden las contra-medidas que normalmente tomaría una organización para evitar la sustracción continua de información, u otro delito relacionado.

Programas Maliciosos:

Puertas Trampa (Trap Door)

Un Trap Door es un punto de entrada secreto que le permite a alguien ingresar a la funcionalidad del programa sin necesidad de pasar por los mecanismos de seguridad habituales.

Bomba Lógica (Logic Bomb)

Es uno de los mecanismos mas viejos de amenaza computacional, es una rutina que hace que un programa que funciona adecuadamente, en una fecha, momento determinado o con una condición específica, “explote”, o generalmente deje de funcionar adecuadamente, pudiendo de manera optativa dañar información.

Caballo de Troya (Trojan Horse)

Es un programa útil o aparentemente útil que tiene comandos o procedimientos ocultos y que cuando es invocado, realiza funciones no queridas o dañinas.

Bacterias

Son programas que no dañan explícitamente archivos sino que su función es reproducirse, replicarse a sí mismas. Sin embargo realizan daños a veces saturando los sistemas que infectan.

Viruses (5)

Programas ocultos en mensajes, programas de uso público que aparentan tener otra utilidad -y muchas veces la tienen-, pero que manifiestan un comportamiento semejante a los virus biológicos en el siguiente sentido: (a) Se replican, algunos rápidamente, en los ambientes informáticos para los que están construidos, y (b) liberan en determinadas fechas, o momentos, una carga letal, que generalmente involucra la destrucción de información en el sistema infectado, desde algún archivo de forma aleatoria, hasta todos los discos rígidos del sistema infectado.

Spyware (7)

Los programas espías o spywares son aplicaciones que recopilan información sobre una persona u organización sin su conocimiento. La función más común que tienen estos programas es la de recopilar información sobre el usuario y distribuirlo a empresas publicitarias u otras organizaciones interesadas, pero también se han empleado en círculos legales para recopilar información contra sospechosos de delitos, como en el caso de la “piratería” de software. Además pueden servir para enviar a los usuarios a sitios de Internet que [falsamente] tienen la imagen corporativa de otros, con el objetivo de obtener información importante. Dado que el spyware usa normalmente la conexión de una computadora a Internet para transmitir información, consume ancho de banda, con lo cual, puede verse afectada la velocidad de transferencia de datos de dicha computadora.

Rootkits (8)

Un rootkit es una herramienta, o un grupo de ellas que tiene como finalidad esconderse a sí misma y esconder a otros programas, procesos, archivos, directorios, llaves de registro, y puertos que permiten al intruso mantener el acceso a un sistema para remotamente comandar acciones o extraer información sensible, a menudo con fines maliciosos o destructivos. Existen rootkits para una amplia variedad de sistemas operativos, como Linux, Solaris o Microsoft Windows.

Worms (9)

Los gusanos o Worms son semejantes a los Viruses en el sentido de que se esparcen, a veces rápido, pero se orientan a otro tipo de contagio, por ejemplo, en lugar de liberarse como carga paga o attachment en emails, como los virus, lo hacen analizando redes e intentando detectar debilidades (vulnerabilidades) en determinados programas que atienden servicios, como pueden ser servidores de Web (http) o de transmisión de archivos (ftp), entre otros. Una vez que encuentran una debilidad, envían un mensaje que produce un malfuncionamiento en el servidor, donde queda una copia del worm, que comienza a escanear desde ese servidor, otras redes. Generalmente agotan los recursos computacionales de las máquinas que infectan, de toda la red local y las vecinas; y a veces a toda la Internet.

Ingeniería Social:

Ingeniería Social” es un término que deriva del estudio sistemático que realizan los ciber-delincuentes, de las debilidades sociales humanas. El dicho “el hilo se corta por lo mas delgado” suele implicar en estos casos que lo mas delgado es aquí el componente humano, y para ello se utilizan técnicas y mensajes que hacen uso de mecanismos incluso del subconsciente, y normalmente de sentimientos de avaricia, solidaridad, compasión, ira, actualidad, desinformación, etc. Quienes realizan la técnica de ataque normalmente llamada “phishing” (4) utilizan estas artimañas con frecuencia para obtener información sensitiva o privada, con el objetivo secundario de obtener alguna ganancia.

SPAM (2)

Es una técnica frecuente de correo masivo que se basa en la recolección de grandes bases de datos de correo electrónico por parte de navegadores de sitios (Web Crawlers) donde se oculta la verdadera naturaleza del correo electrónico, detrás de títulos engañosos o de títulos ambiguos. Es fuente común de posteriores infecciones con virus y otras plagas.

SCAM (3)

Es una técnica específica de SPAM que normalmente sirve a los ciber-delincuentes para obtener información privada y claves, para posteriormente acceder a sistemas del usuario y realizar hurto de información o monetaria. Se usa generalmente un mensaje alarmante, semejante a uno de un sitio confiable conocido, o muy atractivo que lleva a la divulgación de información sensitiva. Es fuente común de posteriores infecciones con virus y otras plagas. Esta técnica se asocia comúnmente al “Phishing” (4).

Amenazas Internas

Según estadísticas recientes, entre el 40 % y el 70% de todos los ataques a la seguridad en las organizaciones, provienen de su interior.

Empleados infieles

Cuando existen recursos valiosos que pueden ser vendidos, puede haber empleados infieles que sean tentados por un competidor u otro ente para extraer esos recursos y transmitirlos fuera de la organización.

Ex-empleados

A veces sucede que empleados son forzados a retirarse de sus puestos y colocados en otra área de la organización o reemplazados. Esto produce muchas veces conflictos que hacen que los mismos descarguen su frustración o enojo dañando el patrimonio de información de la organización.

Falta de recursos de Administración y Control (Personal, Tiempo, Dinero, Capacitación)

A veces el desconocimiento o la falta de visión por parte de los niveles mas altos, respecto de las amenazas o riesgos frente al problema de la Seguridad, son la principal amenaza interna.

A veces es útil ver a la seguridad con la misma óptica que cuando se contrata un seguro [por ejemplo, de automóvil]. No se nos permitirá contratar el seguro después del incidente. Si nada pasa durante un tiempo, mejor, pero el seguro se contrata desde el inicio.

Hay que pensar pro-activamente, antes de que suceda un evento catastrófico, pensando no SI puede suceder, sino CUANDO sucederá. Dichos eventos no necesariamente son ataques “humanos”, sino que puede tratarse de desastres climáticos o de otros tipos.


Nuestra actitud debe ser siempre de prudencia extrema frente a este “bombardeo constante”. Somos continuamente “accedidos” ya sea mediante emails, y por lo tanto es un acceso explícito, es decir que podemos verlo y rechazarlo o aceptarlo, o mediante técnicas de intrusión automáticas en redes, que normalmente no vemos, pasan desapercibidas aunque hay un impacto notorio en los dispositivos tecnológicos, aún cuando estos ataques sean rechazados, el procesamiento de estos mensajes lleva tiempo y si hay una mayor cantidad de mensajes por unidad de tiempo que la que nuestros dispositivos pueden manejar, llamamos en ese caso al ataque, como de “Denegación de Servicio” (o con la sigla DOS en inglés). Una forma frecuente de detectar estos ataques es instalar un programa o dispositivo de firewall o cortafuegos, leer y analizar los logs que guardan un registro de los intentos de ataque infructuosos. Es decir, debemos tomar todos los recaudos que razonablemente sea posible, por ejemplo, utilizar un antivirus actualizado (de los que también hay gratuitos como el AVG o el CLAMAV), activar los filtros anti-SPAM de nuestro cliente de correo electrónico, utilizar herramientas de firewall, anti-rootkit y anti-spyware. Todas estos ataques toman de la biología o la medicina una metáfora de “enfermedad” y entonces las llamamos infecciones, con un nombre genérico muy popular: “malware”. (6)

Por supuesto que la seguridad no es algo que pueda pensarse en términos de blanco o negro, sino que como toda actividad humana de la vida real, tiene trade-offs, estos son muy bien aplicados cuando uno utiliza ese sentido que, como dice el dicho, es el menos común de los sentidos, el sentido común, mejor llamado “buen sentido”. En este caso, podemos ver los peligros que nos amenazan como si fueran un depredador, un tigre por ejemplo. Lo importante es recordar que no es necesario que corramos mas rápido que el tigre para escapar de él (aunque sería conveniente, generalmente es muy costoso), lo importante es correr mas rápido que los otros, como lo saben todas las presas en el continuo juego de la vida, que nos muestra que la presa devorada por el predador es generalmente el corredor mas lento o el mas distraído. Entonces una lección que se ve de inmediato es que tenemos que prestar atención a lo que hacemos, por ejemplo, por donde navegamos, de quién recibimos correo, qué hacemos con los medios magnéticos u ópticos que nos llegan, dónde conectamos nuestros MP3, MP4, llaves USB, cámaras digitales, teléfonos móviles, y qué confianza les asignamos a quienes son dueños del “target” u originan los mensajes.

Existe una técnica de SPAM que se utiliza mucho para averiguar las claves e información de usuarios distraídos o interesados en el enriquecimiento instantáneo, y es llamada SCAM, generalmente como parte de las técnicas de “phishing” o “pesca informática”. Hay un viejo dicho que dice “a caballo regalado, no se le mira el diente”. Este dicho no debemos aplicarlo nunca en informática. Si alguien nos regala un caballo (virtual), lo primero que tenemos que preguntarnos es “qué gana este sujeto?”, lo segundo es “¿será un caballo [de Troya]?” y la primera acción deberá ser, revisarle todos los dientes al equino, si es posible con un dentista veterinario. Si nos llega un correo diciendo que ganamos la lotería, o que alguien nos quiere regalar un millón de Euros, o que la / el mujer / hombre mas hermosa / hermoso del mundo nos busca, no seamos cándidos, es [altamente] probable que al dar click a un link hagamos que nuestra PC se infecte con un virus o un rootkit (que permitirá su control por parte de atacantes remotos, el subsiguiente robo de información y su uso como puente para atacar a otros). Por supuesto que hay esquemas mucho mas sofisticados que involucran correos electrónicos que aparentan ser idénticos a los de entidades financieras con que operamos, y que nos dicen “hemos tenido una fuga de seguridad y sus claves han sido comprometidas, junto con las de otros clientes, ingrese en el siguiente link para cambiarla de inmediato”, donde por supuesto para cambiarla se exige que uno ponga la clave anterior (en realidad la actual) y ZAS ! Ya está, tienen nuestro usuario y clave y saben de qué banco (en general usan las páginas Web de ingreso de bancos muy conocidos como el Citi o BNP Paribas, o de servicios de transferencias o compras por Internet, como Ebay, Paypal, o Amazon), ahora pueden realizar movimientos bancarios y transferencias, y en el caso de que el software de Internet Banking del banco respectivo lo permita, pueden llegar a transferir fondos a otras cuentas del mismo banco o de otros bancos, a cualquier lugar del mundo y a horas donde los bancos supuestamente no están abiertos, de forma que cuando nos damos cuenta, bye bye money… Hay ciber-delincuentes que llegan incluso – como un último paso destinado a borrar sus huellas – a cambiar las claves con las mismas claves nuevas que ingresó el usuario perjudicado, para que este no se de cuenta del robo de información, y poder seguir accediendo a la cuenta posteriormente.

Pero no queremos ser alarmistas, no debemos ser pesimistas. Sin embargo debemos conocer la realidad y estar atentos. Para eso es este documento de divulgación. Nos puede pasar a nosotros en cualquier momento, y es mas probable que nos pase cuanto mas distraídos estemos. La seguridad es algo demasiado importante para dejar en manos de los especialistas (parafraseando el viejo adagio).

Por otro lado, en este documento hacemos énfasis en prestar atención a la seguridad “en todo momento y lugar”. No es un manual de políticas y procedimientos de seguridad de la información de la organización. Es un documento de divulgación que permite a la entidad mayor seguridad “humana” porque quienes lean el documento, si éste es convincente y entendible, serán mas pro-activos en todo momento, y con el continuo aumento de movilidad tecnológica, los usuarios llevan y traen equipos portátiles, celulares inteligentes, llaves USB, MP3 y MP4, iPods, iPhones, BlackBerrys y cualquier otro “gadget” que aparezca en cualquier instante. Por lo tanto es imperioso que los usuarios sean cuidadosos en su casa. Quizás tanto o mas cuidadosos que en el ambiente de trabajo, ya que en él sí existen mas controles y es menos probable la difusión de una “infección” computacional. Queremos proteger a todos los usuarios porque queremos protegernos a nosotros mismos, tenemos que convencer a los usuarios para que presten atención y estén atentos ya que, como “el hilo se corta por lo mas delgado”, uno solo que no esté alerta puede implicar una rotura de la seguridad. Un agujero en el borde puede ser fatal, y quienes físicamente y funcionalmente traspasan ese borde todos los días son los usuarios, que son como “puertas traseras” caminando. Es importante que así como cuando uno tiene gripe, se queda en casa a curarse, trata de no contagiar a los demás, y antes trató de no enfermarse, la actitud debe ser análoga con respecto a las infecciones informáticas. Y eso es algo que sólo cada usuario puede hacer, es cultural y sólo se adquiere con tiempo y práctica.

Por supuesto que las técnicas de ataque son cada vez mas sofisticadas y aún el correo enviado por amigos o conocidos puede ser parte de un esquema de agresión cibernética (ya que sus PCs pueden estar ya comprometidas), de manera que es difícil confiar aún en uno mismo.

Sin embargo no debemos pensar en que nos dirigimos a una hecatombe apocalíptica del ambiente tecnológico, lo importante es ser prudentes y pro-activos. Siempre conviene ser un poco paranoicos. Saber que cualquiera puede haber tomado el control de algún dispositivo informático que estamos usando, o que esté cerca nuestro, por lo tanto, debemos hacer lo que dicta el sentido común: Tratar de utilizar todas las herramientas a nuestro alcance que nos permitan defendernos de estas amenazas (especialmente si son software libre y de código abierto).

El uso de tecnologías heterogéneas sirve para mitigar los riesgos: por ejemplo, una casa u organización llena de PCs con Windows XP en red, donde una PC quede comprometida, probablemente se convierta en una red de “bots” comprometida en sólo unos instantes, donde todas las PC queden infectadas y puedan ser controladas de manera remota por los atacantes. Al contrario, una red de PCs donde convivan PCs con Windows, con Linux y Macintosh, o aún con distintas versiones de Windows, será mas difícil de controlar completamente por parte de los atacantes, gracias al “distinto ADN” de sus sistemas operativos heterogéneos. Esto es similar al problema ecológico que se da en los bosques de una única especie, donde una plaga se esparce como reguero de pólvora, a diferencia de los bosques naturales, donde múltiples especies conviven, y hay gran diversidad: si una especie sufre una plaga, es menos probable que muera el bosque.

El paradigma de uso de tecnologías heterogéneas como mecanismo de protección, puede extenderse al uso de herramientas que no sean “demasiado” populares: Por ejemplo, usar Firefox como navegador, en lugar de Internet Explorer, o usar Thunderbird o Eudora, en lugar de Outlook u Outlook Express, puede hacer que uno quede menos expuesto a ataques, ya que los atacantes en general tratan de orientar sus infecciones hacia el mayor ecosistema, sea este Windows XP o Internet Explorer, o MSN Messenger. Usar un cliente de chat alternativo puede hacer que uno quede menos expuesto, y aún mas si uno usa otro “protocolo” de chat, por ejemplo GoogleTalk o ICQ en lugar de MSN. Pero aquí también hay un trade-off, y es el siguiente: “De que me sirve tener una herramienta súper-segura de comunicación que uso yo solo?” Justamente muchas veces la utilidad de una herramienta está en su difusión, si bien hay herramientas que son inter-operables y que pueden comunicarse unas con otras aunque sean de distintos fabricantes, éstos tratan de hacer que los demás fabricantes no se puedan comunicar con ellos para obtener una mayor “torta” del mercado. De hecho Microsoft fue castigado en Europa recientemente con casi mil millones de Euros en dos multas, por hacer exactamente eso. En resumen es importante que disminuyamos nuestro perfil atacable, nuestra “sombra” visible, nuestra sección, si estuviéramos pensando en aviones y radares. Que hace un avión “invisible”? Reduce su detectabilidad al disminuir la sección detectable. Si nosotros no usamos las herramientas mas populares, reducimos la probabilidad de ser “target” de un ataque orientado a la vulnerabilidad de una herramienta muy popular.

De la misma manera tenemos que alejarnos de soluciones que utilice muy poca gente, ya que en ellas puede haber ocultos esquemas de ataque, debido a que no fueron suficientemente auditadas por un público suficientemente masivo y revisadas por especialistas.

No debemos dejar de comentar que un esquema tecnológico heterogéneo es mas costoso a nivel soporte técnico en general, dado que habrá una variedad de tecnologías distintas que conviven en el ecosistema, en lugar de un único proveedor.

Pongamos como ejemplo la confección de algo tan normal como un Currículo Vitae. Uno lo crea, cuando en algún momento de su vida desea presentarse a un nuevo trabajo. Luego se va modificando, y uno le va agregando distintos trabajos por los que va pasando. El ciclo de vida de la tecnología es muy rápido, se puede decir que acompaña las modificaciones del CV casi con una versión mas nueva de procesador de palabras por cada vez que uno lo modifica. Normalmente uno debe ir migrando la herramienta con la que creó el CV, por ejemplo, pasando de Wordstar a Word para DOS, luego a Word para Windows y luego a Word para Macintosh. Mas tarde viene la ola de software libre y uno comienza a usar Open-Office en Linux, por lo tanto debe migrar el formato. Sin compatibilidad e interoperabilidad del software, cada vez deberíamos rescribir el CV desde cero, copiándolo desde una copia impresa. El pensar en qué formatos guardar los documentos de uno que son importantes y tienen un ciclo de vida largo, es significativo para la manutención de los sistemas de información y para no tener que rehacer la información cada vez, ya que si no hay un medio de copia o soporte, aunque sea analógico en lugar de digital (por ejemplo en papel), la reconstrucción puede no ser posible.
Conclusión

La seguridad de los sistemas de información en los ambientes cada vez mas tecnológicos, es un tema crítico.

No enfrentarse al problema o postergarlo, implica arriesgar la continuidad de operación e información de uno, o de la organización.
Tratarlo no es fácil, pero no es imposible. No hay que ser pesimistas, no hay que tomar medidas drásticas. Es importante el organizarse, planificar rutinas y ejecutarlas, hasta que lleguen a hacerse costumbre y nos permitan hacerlas sin pensar, el automatismo eliminará o reducirá la pérdida de tiempo.
Es necesario [quizás más que en otras áreas] conseguir recursos, tiempo y personal capacitado, además de aplicar el sentido común o buen sentido.
Después de una pérdida de información grave, de nada vale lamentarse; debemos ser pro-activos y no subestimar los riesgos. Es fácil saber los resultados deportivos con el diario del lunes, pero no nos hará más ricos. Lo que hay que hacer es prevenir los resultados “malos para el equipo” antes del domingo, si se entiende la metáfora.
Tampoco hay que pensar que es un tema de solución rápida, o que es fácil obtener una solución de tipo “Dispare y olvídese”, no es sólo cuestión de comprar un dispositivo o metodología y despreocuparse. La seguridad es algo de todos los días. Requiere estar encima. Monitoreo, control, lectura de los registros de acceso, o personal que lo haga por uno.
No existe la seguridad perfecta. No existe la pared “Indestructible”, las paredes, cuanto mas altas son, mas fuerte caen. Mejor varias paredes pequeñas, una detrás de otra y de distintos materiales, que una grande.
La seguridad de los sistemas de información es demasiado importante como para dejarla sólo en manos de los especialistas en seguridad. Debemos involucrarnos todos.


La combinación de Tiempo, Espacio y Fuerza que debe ser considerada como elemento básico de la Teoría de Defensa, hace que sea una materia realmente complicada. Consecuentemente, no es fácil encontrar un punto fijo de partida.
Sobre la Guerra, Carl Von Clausewitz

Notas, Bibliografía, Links útiles









Algunos conceptos extraídos, traducidos y adaptados del libro “Cryptography and Network Security, Principles and Practice”, De William Stallings, Prentice-Hall, ISBN 0-13-869017-0

Sitios de Noticias de Seguridad Informática





Que podemos hacer para mejorar nuestra seguridad y privacidad ante el espionaje de la NSA

Qué podemos hacer nosotros? Que ya teníamos una agenda difícil con unos cuantos hackers desorganizados y un poco molestos, como Anonymous y LulzSec, dispuestos a publicitar situaciones no queridas por sus dueños, o con unos cuantos grupos de crackers mas organizados, bandas dedicadas al crimen electrónico, que trataban de rentabilizar la fragilidad del ambiente de Internet con el robo de transacciones financieras o de información sensitiva?

De lo que ahora estamos hablando es de una organización de espionaje e inteligencia con mas presupuesto anual que el PBI del 80% de los países del planeta. Estamos hablando de jugadores completamente fuera de nuestra liga. Mosquitos podríamos considerarnos, contra un “Gran Elefante Blanco” (y un montón de monos que le rinden pleitesía – Estados-Satélite que le facilitan el trabajo de espionaje). Como en la mitología, esto es semejante a Dioses del Olimpo que “operan” sobre nosotros los mortales. Donde la NSA vendría a ser como Zeus o Apolo, y los restantes actores estatales serían una pandilla de dioses menores donde algunos son sirvientes y otros tratan de destronarlo. Qué se puede hacer?

       Lo primero es huir (lo mas lejos posible) de todo el software propietario que podamos, lo mas rápido que podamos.

       No usar productos de Microsoft: No usar Skype, No usar Sistema Operativo Windows, No usar Microsoft Office, ni Word, Excel o PowerPoint, No usar Microsoft Project, No usar Outlook, ni Outlook Express, No usar Windows Server, No usar Microsoft Exchange, No usar Internet Information Server, No usar Microsoft SQL Server, No usar Windows Phone.

       No usar productos de Apple: No usar Macintosh, No usar iPhone, No usar iPad. No usar iTunes, No usar AppleTV.

       No usar NetFlix.

       No usar Unix propietarios: Ni de IBM (AIX), ni de Oracle (Solaris), ni de HP (HP-UX).

       No usar servicios de Google: Google Docs, No usar Gmail, No usar Gtalk, No usar Maps, No usar Street View, No usar su Calendario, No usar Chrome, No usar Android.

       Usar software libre siempre que se pueda y promover que las personas usen, los desarrolladores desarrollen y las compañías apoyen al software libre:

       Usar Linux (Ubuntu, Debian, Mint, Fedora, Red Hat, SuSE)

       Usar BSD (OpenBSD, NetBSD, FreeBSD).

       Usar servidores Web basados en el software libre como Apache o Nginx.

       Usar administradores de bases de datos basados en software libre como MariaDB o PostgreSQL.

       Usar servidores de aplicaciones basados en el software libre como PHP, Tomcat, Jboss.

       Usar aplicaciones de oficina basadas en software libre como LibreOffice u OpenOffice.

       Usar navegadores (browsers) basados en el software libre: Firefox, Chromium.

       Usar sistemas de correo electrónico, email y de chat basados en el software libre: Thunderbird, Emphaty, Pidgin, Evolution.

       Usar interfases visuales basadas en software libre como KDE, Unity, Gnome, MATE, FXCE, LXDE, X Windows, Wayland. No usar drivers propietarios (ni gráficos, ni otros).

       Usar sistemas de telefonía, VoIP, chat y videoconferencia basados en el software libre, como Jabber, Ekiga, Asterisk.

     Compartir archivos basándose en productos de software libre como Samba 4, o FreeNAS.

       Usar firewalls y detectores o preventores de Intrusiones basados en el software libre como  PFSense, iptables, Snort.

       Usar herramientas de red y de monitoreo basadas en el software libre como Nagios, OSSIM, Wireshark, NMAP, usar OpenVAS en lugar de Nessus.

       Usar herramientas de cifrado basadas en software libre como TrueCrypt, FileCrypt, Gnupg (GPG), Redes Privadas virtuales basadas en OpenVPN.

       Usar sistemas de evasión mediante señuelos (decoys) basados en software libre como Honeypot o Honeyd.

       Usar sistemas de virtualización basados en software libre como VirtualBox, KVM o Xen Server y no VMWare.

       Usar sistemas de anonimización estilo TOR (The Onion Router).

       Huir de los servicios “en la nube” (Cloud Computing), especialmente los provistos por empresas occidentales, tanto sea Hosting, como servicios de VPS, SaaS, IaaS, PaaS, etc.

       Usar servicios de DNS, Mail, Chat, Videoconferencia, etc. Basados en servidores internos a la organización, dentro del propio centro de datos, y basados en el software libre.

       Si hay que implementar un Centro de Datos de Contingencia, éste debe ser propio y no  alquilado (“hosteado”) en empresas estadounidenses como Microsoft, Hewlett-Packard, Dell, IBM, Oracle, EMC2, etc.

       No usar servicios de nube de Amazon, ni de Google; No usar Servicios de Microsoft Azure, ni de RackSpace, o de Red Hat. No usar servicios iCloud de Apple.

       Si no hay otro remedio que usar un servicio externo, asegurarse de que los servidores están en el país, y regulados con las leyes del país, y las comunicaciones no van hasta Estados Unidos y vuelven, y esto debe estar mencionado de manera explícita en los convenios escritos que deben ser firmados.

       Huir de las redes sociales como Facebook, Twitter, Google+, Instagram, Spotify, Tumblr, etc.

       Si es posible, separar los servicios externos de gestión de canales (redes sociales, marketing, publicidad, soporte) respecto de los sistemas críticos y operativos.

       Si por razones publicitarias, comerciales y/o de marketing es necesario utilizarlas, crear una fuerza de tareas separada con agentes virtuales y perfiles falsos que sirvan de fachada y mantener compartimentada la arquitectura tecnológica, incluso a nivel físico, de forma que no se mezcle esa actividad con las aplicaciones operativas y críticas de la organización.

       Usar la cabeza (y el sentido común, el menos común de los sentidos)

       Utilizar arquitecturas heterogéneas (no todas del mismo tipo o del mismo fabricante, de forma de dificultar la intrusión).

       Mantener perfil bajo.

       Desarrollar una cultura (social, laboral, personal, corporativa) defensiva.

       No publicar lo que no es necesario que los demás sepan, ni difundir lo que no es necesario.

       Ser pro-activos, pensar dos veces, usar el buen  sentido para ser menos propensos a caer en las trampas tendidas por los hackers mediante ingeniería social (el mecanismo mas usado para la realización de cíber-ataques).

       Las empresas, gobiernos, entidades, organizaciones y corporaciones deberán:

       Invertir mas (y mejor) en capacitación, en personal idóneo, en la administración, supervisión y control de los recursos, en capacidad de discriminación de qué información debe ser clasificada como secreta, cual reservada, cual no-secreta y cual pública.

       Fomentar un CAMBIO CULTURALentre sus integrantes, como una manera de expandir el uso del software libre y las actitudes defensivas en el comportamiento digital.

       Hacer conocer la información sobre una base de “sólo si es necesario”.

       Utilizar mas y mejor los recursos de encripción y cifrado de una forma mas amplia y extendida. Las redes privadas virtuales, las VLANs, los vínculos encriptados, los usos de TLS y SSL, los directorios, carpetas y archivos encriptados deben ser de un uso mucho mas común y rutinario.

       Utilizar menos productos de software propietarios promovidos por las organizaciones internacionales como el BID, el FMI o el Banco Mundial, que en general atan sus préstamos a toneladas de condiciones no técnicas, como adquirir servicios y productos de empresas occidentales en general y estadounidenses en particular.

       Los gobiernos deberían YA estar invirtiendo en I+D en software (especialmente en software libre y de seguridad) y en hardware, especialmente de dominio público: Debería haber miles de especialistas trabajando en este mismo instante en producir los mecanismos de defensa requeridos ante el desafío, en cada gobierno. También deberían estar asesorando a empresas, organizaciones e individuos sobre las maneras de protegerse, de una manera racional, coherente y costo-efectiva.

       Las corporaciones importantes deberían YA estar invirtiendo en desarrollo, mantenimiento y capacitación en software (especialmente en software libre y de seguridad): Debería haber al menos decenas de especialistas trabajando en este mismo instante en producir los mecanismos de defensa requeridos ante el desafío, en cada corporación, y en la difusión para la promoción del CAMBIO CULTURAL interno.

       Las empresas PyMEs deberían ya estar invirtiendo en mecanismos de defensa, y contratando algún especialista en seguridad informática y administración de redes y servidores, una cantidad que debiera depender tanto de su tamaño como de su fortaleza económica, y que les permita aislarse mejor del entorno peligroso en que se convirtió Internet y pasar mas desapercibidos.


Samsung lanza su espectacular TV OLED curvado de 55” en Corea

Samsung lanza su espectacular TV OLED curvado de 55” en Corea:
Filed under:

Samsung lanza su espectacular TV OLED curvado de 55'' en Corea

Los rumores han resultado ser ciertos y Samsung acaba de hacer público la disponibilidad de una OLED HDTV curvada de 55 pulgadas para el mercado coreano. El colosal equipo sale a la venta por un precio de 15 millones de wones coreanos (unos 13.000 dólares/9.909 euros) y el fabricante asegura que gracias a su diseño, se eliminan los potenciales píxeles defectuosos. Los coreanos también hacen suya la afirmación de sus compatriotas de LG cuando expresaban que manteniendo todas las partes de la pantalla a la misma distancia para el espectador, hacen que la visión sea una experiencia superior.

Este televisor cuenta también con funciones que hemos visto en otros equipos de Samsung como la multivisión, que permite a dos personas ver cosas diferentes gracias a las gafas 3D y la actualización Evolution Kit CPU. No se sabe cuándo estará disponible en otros mercados y a qué precio, pero te mantendremos informado.

[Actualización: Según indica Reuters, Samsung no tiene planes de lanzar HDTVs OLED de pantalla plana durante este año. La oferta OLED estará formada exclusivamente por paneles curvados.]

Read | Permalink | Email this | Comments

Toshiba inundará el mercado TV 4K en agosto con modelos de 58, 65 y 84”

Toshiba inundará el mercado TV 4K en agosto con modelos de 58, 65 y 84”:
Filed under:

Toshiba inundará el mercado TV 4K en agosto (58, 65 y 84'')

Toshiba nos mostró su segunda generación de televisores 4K en la pasada edición de CES y ahora el fabricante ha decidido lanzar al mercado tres nuevos miembros de la gama L9300U que llegarán en agosto a un precio que los sitúan lejos del alcance del grueso de los bolsillos. Todos ellos llevan el procesador CEVO 4k Quad+Dual Core que integra procesamiento de imágenes y su suite de aplicaciones Cloud TV. Todos ellos cuentan con WiFi integrado, Miracast y WiDi, y la alegría de contar con la certificación de Technicolor para el reproductor Blu-ray y el media box para la reproducción de contenido HD en los televisores 4K.

Los modelos que el fabricante lanzará al mercado serán de 58, 65 y 84 pulgadas y con unos precios, como apuntamos, para bolsillos sin complejos (4.999, 6.999 y 16.999 dólares respectivamente). Los equipos de Toshiba competirán abiertamente con la oferta de Sony, Sharp y Samsung en este creciente mercado.

Permalink | Email this | Comments

Voluntario de WikiLeaks era un informante pagado del FBI

Voluntario de WikiLeaks era un informante pagado del FBI:
La revista Wired reveló este jueves que un joven islandés llamado Sigurdur “Siggi” Thordarson (Sigurður Ingi Þórðarsson) era parte del equipo de voluntarios de WikiLeaks también fue un informante pagado del FBI.
Thordarson se involucró durante 18 meses con la organización fundada por Julian Assange, donde se acercó lo suficiente al círculo íntimo del grupo como para eventualmente ser promovido a administrador del canal de IRC del grupo, encargándose de atender a los voluntarios recién llegados y a los medios de comunicación.
En el transcurso de un año, Thordarson asegura que le pagaron en total unos US$ 5.000 en efectivo a lo largo de tres ocasiones distintas a cambio de su cooperación con la investigación sobre WikiLeaks, lo que incluyó ser interrogado y entregar alrededor de 1TB de información en ocho discos duros que incluían logs de chats, videos, documentos, imágenes y otros datos relacionados con WikiLeaks.
El joven islandés — que tiene fama de ser mentiroso y poco confiable – asegura que reveló sus acciones porque “era solo cosa de tiempo hasta que descubrieran quién era“. Por su parte, WikiLeaks estaba enterado de la existencia del informante, y aseguró que “es muy probable que el FBI haya utilizado una combinación de coerción y pagos para presionar al joven a cooperar“.
Según Thordarson, lo que lo motivó a traicionar a WikiLeaks fue una combinación de un creciente desagrado por los métodos que la organización fundada por Assange utilizaba para adquirir sus filtraciones, y — lo que sería lo más probable — un miedo al sistema de justicia norteamericano.
El joven entregó como prueba la imagen inferior, que sería el recibo que le entregó el FBI a Thordarson por entregar la información en los ocho discos duros en marzo del año 2012.

Link: WikiLeaks volunteer was a paid informant for the FBI (Wired UK)

Nuevo método para separar el orden del caos

Nuevo método para separar el orden del caos: Científicos de la UPC y de la Universidad de Aberdeen (Escocia) han desarrollado un nuevo método con el que se pueden distinguir comportamientos ordenados dentro de secuencias de inestabilidades generadas en sistemas altamente complejos. Su metodología, basada en la escala temporal, es mucho más sencilla que la que se utilizaba hasta ahora.

Nuevo método para separar el orden del caos
Científicos del grupo de investigación Dinámica no Lineal, Óptica no Lineal y Láseres (DONLL) y del Departamento d…
Tendencias 21 (Madrid). ISSN 2174-6850

Un árbol de la vida interactivo

Un árbol de la vida interactivo:
arbol
El concepto de Árbol de la vida como árbol de muchas ramas ilustra la idea de la vida en la tierra. La excepcional web «OneZoom» permite consultar las relaciones entre 5.200 especies animales y remontarse hasta su ancestro común. Aquí podéis explorar el árbol de la vida de forma interactiva, haciendo zoom in o zoom out, yendo para arriba y para abajo…
James Rosindell, biólogo del Imperial College de Londres y uno de los promotores del proyecto, junto a Luke Harmon, de la Universidad estadounidense de Idaho, han logrado reunir hasta 5.200 especies, y en un futuro esperan completar este mapa digital con todas las restantes, así como con fotografías de los seres vivos o de sus fósiles.

CyanogenMod 10.1 recibe la etiqueta de ‘estable’ mientras aparece en los servidores de descarga

CyanogenMod 10.1 recibe la etiqueta de ‘estable’ mientras aparece en los servidores de descarga:
Filed under:

CyanogenMod 10.1 recibe la etiqueta de 'estable' y estará listo para el consumo a partir de hoy noche

Este es un día para celebrar si eres fanático de las ROM caseras, porque el proyecto más popular de todas las modificaciones de Android acaba de anunciar que su última versión pasa a ser considerada “estable”. Nos referimos al CyanogenMod 10.1, que desde hoy estará disponible en los servidores del proyecto.

Lamentablemente, por ahora esta ROM no incluirá soporte para dispositivos Tegra 2 y algunos aparatos Samsung con chip Exynos. En todo caso, sus desarrolladores no descartan incluirlos en la lista de dispositivos compatibles en un futuro cercano, y en unos días proporcionarán el “reporte del estado” para esas configuraciones. Por el contrario, si eres propietario de un tablet o móvil con soporte oficial, puedes ya prepararte para instalar la versión 10.1, que ahora empezará a recibir actualizaciones de caracter mensual con opciones adicionales y mejoras del funcionamiento.

Por medio de los enlaces inferiores podrás leer el anuncio oficial y ver la lista de imágenes disponibles, entre las que se aprecian varias con un “estable” en la columna correspondiente al “tipo” de instalación.

Leer – CyanogenMod (Anuncio)

Leer – CyanogenMod (Descargas)

Permalink | Email this | Comments

El Huawei Ascend P6 llegará con Movistar el 8 de julio por 12 euros al mes (+IVA)

El Huawei Ascend P6 llegará con Movistar el 8 de julio por 12 euros al mes (+IVA):
Filed under: ,

El Huawei Ascend P6 llegará con Movistar el 8 de julio por 12 euros al mes (+IVA)

El teléfono que abandera actualmente el catálogo de Huawei ya tiene precio y fecha de lanzamiento para España. El recién presentado Ascend P6 se ha pasado por la famosa tienda de Movistar de Madrid, dejando ver sus especificaciones y su delgado perfil. Como seguro recordarás, este teléfono presume de montar un procesador de cuatro núcleos a 1,5 GHz, 2 GB de RAM, 8 GB de memoria interna y una pantalla de 4,7 pulgadas con 720 x 1.280 píxeles de resolución. Cuenta además con una cámara de 8 megapíxeles, y otra frontal de 5 megapíxeles, dodo ello en tan sólo 6,18 milímetros de grosor. Pero para conocer todos los detalles al mílimetro y echar un ojo más de cerca de este teléfono, será mejor que te vayas a la primera toma de contacto que pudimos hacerle recientemente en Londres.

Volviendo a lo relacionado con su lanzamiento en España, Movistar ha informado que el Huawei Ascend P6 llegará a sus tiendas a partir del 8 de julio mediante el método de subvención, siendo la cuota mensual de 12 euros mensuales (más IVA). A dicho pago mensual (que serán un total de 24 cuotas) habrá que sumarle la correspondiente tarifa de datos -siendo la de 9 euros la más barata hasta el momento, así que el precio final del teléfono sería de 348,48 euros en lo que a subvención respecta, 609,84 euros si tenemos en cuenta la tarifa de datos (que es a fin de cuentas lo que el usuario pagará como mínimo en cualquiera de los casos).

Este lanzamiento llega acompañado además de un periodo de exclusividad con Movistar de 2 meses, así que si quieres estrenar este teléfono en verano, vas a tener que firmar tu permanencia con la compañía de Telefónica.

Permalink | Email this | Comments

Sony Xperia Z Ultra en nuestras manos (¡con vídeo!)

Sony Xperia Z Ultra en nuestras manos (¡con vídeo!):
Filed under: , ,

sony xperia z ultra video

Y aquí está. El gigantón de Sony ha hecho acto de presencia hace pocas horas en todo el mundo y, para nuestra suerte, Madrid también entraba en esta primera ronda de estreno. Este equipo de 6,4 pulgadas viene a recoger el testigo de sus hermanos Xperia Z y Xperia Tablet Z, colocándose a caballo entre ellos dos para satisfacer a todos aquellos que sigan viendo las 5 pulgadas como escasas -oye, no me levantes la ceja- y las 10,1″ les resulten demasiado grandes. Con más aspecto de tablet pequeño que de smartphone, el Xperia Z Ultra resulta tremendamente manejable, gracias a un peso muy liviano y a un grosor casi ridículo dadas sus dimensiones: hablamos de 212 gramos de peso y 6,5 mm, por lo que realmente tu percepción la llevarlo encima no distará mucho a la que actualmente tienes si usas un Xperia Z (o terminal similar).

Para no desentonar con su citado hermano, también aquí nos encontramos con la elegancia del vidrio reforzado (Dragontrail) en ambas caras, acompañado del mismo armazón y botonería que podemos observar en esta gama Z. Las sensaciones por tanto son muy parecidas a la hora de agarrarlo y tocarlo, e incluso volvemos a ver el característico y sobresaliente botón plateado que caracteriza a la familia. Su pantalla ofrece una calidad de imagen realmente buena (hablamos de resolución Full HD en 6,4 pulgadas) y sus ángulos de visión parecen haber mejorado a primera vista en comparación con el Xperia Z -fue quizás una de las mayores pegas que le encontramos cuando lo analizamos.

Continue reading Sony Xperia Z Ultra en nuestras manos (¡con vídeo!)

Permalink | Email this | Comments

OUYA deja el crowdfunding y llega oficialmente a las tiendas

OUYA deja el crowdfunding y llega oficialmente a las tiendas:
Filed under:

OUYA deja el crowdfunding y llega oficialmente a las tiendas

Aunque ha acumulado cierto retraso, los chicos de OUYA están de enhorabuena. Su consola ha llegado por fin a las tiendas, y actualmente ya puede adquirirse en algunas tan conocidas como Amazon, GAME, GameStop o Best Buy. Lamentablemente todavía hay algunos usuarios que apoyaron la propuesta a través de Kickstarter que no han recibido su unidad, pero la compañía asegura que están haciendo muchas horas extra para que este problema se solucione lo antes posible. En lo que a España respecta, la web de Amazon España todavía no muestra la disponiblidad de la consola, siendo únicamente Amazon.co.uk la que deja comprar el dispositivo nacido del crowdfunding (con un tiempo estimado de entrega de 3 semanas).

Read | Permalink | Email this | Comments

Firefox se actualiza para hacerse compatible con juegos 3D, videollamadas y alguna sorpresa más

Firefox se actualiza para hacerse compatible con juegos 3D, videollamadas y alguna sorpresa más:
Filed under:

Firefox se actualiza para hacerse compatible con juegos 3D, videollamadas y alguna sorpresa más

Ya tenemos una nueva versión de Firefox lista para tomar carrerilla, la número 22, que hace acto de presencia con una buena colección de novedades bajo el brazo. Para empezar nos encontramos con que la actualización hace al navegador compatible con llamadas de vídeo y voz, pero también le sirve en bandeja los juegos 3D -de hecho, tienes un pequeño aperitivo por aquí y la propia organización cuenta también con un título llamado “BananaBread” para que puedas comprobar de tooodo cuanto es capaz su retoño.

Por si esto fuera poco, la recién llegada contempla también la posibilidad de compartir archivos sin que tengamos que instalar más software o plug-ins de terceros, y una nueva versión de JavaScript a la que Mozilla ha colgado la etiqueta de ser súper vitaminada. El broche final para los usuarios de OS X lo pone una nueva barra de progreso para que tengas bien controladas las descargas.

¿Ganas de hincarle el diente? Pues ya puedes ir asomándote por el enlace de lectura.

[Vía The Next Web]

Leer – The Mozilla Blog

Leer – Desglose novedades

Leer – Descarga de Firefox 22

Permalink | Email this | Comments

Sony anuncia su reloj inteligente SmartWatch2

Sony anuncia su reloj inteligente SmartWatch2:
Tal como se había anticipado hace unos días, Sony reveló un nuevo reloj inteligente durante la Mobile Asia Expo en Shanghai. El gran anuncio se trata del SmartWatch 2, un dispositivo con Android y conectividad NFC y Bluetooth 3.0 que más que revolucionar, parece ser una simple actualización a la versión lanzada el año pasado.
El SmartWatch 2 cuenta con pantalla de 1.6 pulgadas con resolución de 220 x 176 pixeles que permite revisar correos electrónicos y redes sociales como Facebook o Twitter. Puede sincronizarse con otro dispositivo Android para tomar fotos o realizar presentaciones de manera remota. También es posible usarse como control remoto para dispositivos Walkman o cualquier reproductor compatible.
En la parte técnica encontramos que el cuerpo está construido en aluminio y tiene un brazalete de acero inoxidable. Hay soporte para brazaletes intercambiables y la batería dura de 3 a 4 días con uso normal. No está de más decir que cuenta con soporte para aplicaciones de la Play Store y de acuerdo a Sony, la interfaz de usuario es intuitiva, muy similar a Android.
El SmartWatch 2 estará disponible en septiembre de este año. El precio final sigue siendo una incógnita. Si quieres conocer más de este dispositivo, nuestros amigos de Wayerless ya tienen las primeras impresiones.

Click aqui para ver el video.
Link: Sony SmartWatch 2 [A primera vista]

Google agrega información sobre sitios con malware y phishing a su Reporte de Transparencia

Google agrega información sobre sitios con malware y phishing a su Reporte de Transparencia:
Como una forma de “seguir protegiendo la seguridad de los usuarios de la red”, Google acaba de anunciar en su blog oficial que agregará a su Reporte de Transparencia (Transparency Report) una nueva sección con los datos obtenidos por Safe Browsing en cuanto a malware y sitios de phishing.
En adelante, será posible saber cuanta gente ve advertencias de Safe Browsing sobre malware cada semana, que tan rápido vuelve el malware a sitios que ya fueron desinfectados, o en que lugar alrededor del mundo se alojan estos sitios maliciosos, entre otras cosas.
“Compartir esta información se alinea muy bien con nuestro Reporte de Transparencia”, dicen en Google, reporte que ya le entrega a los gobiernos datos útiles para diversos fines. La sección de Safe Browsing se puede ver en el sitio oficial de la transparencia y puede ser particularmente útil para webmasters y gente relacionada al ámbito de las redes y la seguridad en internet.
Link: Transparency Report: Making the web a safer place (Blog oficial de Google)

Las plantas hacen cálculos aritméticos para no pasar hambre

Las plantas hacen cálculos aritméticos para no pasar hambre: Científicos del Reino Unido aseguran haber encontrado la primera prueba de cálculo aritmético en vegetales: para evitar pasar “hambre” durante la noche, las plantas realizan una división muy precisa, que les permite utilizar sus reservas de almidón a una velocidad constante, de manera que se les acaben casi exactamente al amanecer.

Las plantas hacen cálculos aritméticos para no pasar hambre
Una nueva investigación ha constatado que, para evitar pasar “hambre” durante la noche, las plantas realizan una división aritmética muy precisa.

Est…

Tendencias 21 (Madrid). ISSN 2174-6850

Descubren una estrella “cercana” con tres supertierras en zona de habitabilidad

Descubren una estrella “cercana” con tres supertierras en zona de habitabilidad: Nuevas observaciones de la estrella Gliese 667C realizadas por ESO ha desvelado la existencia de un sistema con, al menos, seis planetas, situado “cerca” de la Tierra: a 22 años luz. Lo más sorprendente para los astrónomos es que tres de esos planetas son supertierras situadas en la zona que rodea a la estrella dentro de la cual podría haber agua líquida, convirtiéndolas en posibles candidatas para la presencia de vida.

Descubren una estrella “cercana” con tres supertierras en zona de habitabilidad
Un equipo de astrónomos ha combinado nuevas observaciones de l…
Tendencias 21 (Madrid). ISSN 2174-6850

Una simulación ayuda a comprender la aparición de la vida a partir de materia inerte

Una simulación ayuda a comprender la aparición de la vida a partir de materia inerte: ¿Cómo es posible que un organismo complejo se desarrolle a partir de materia inerte? Un estudio realizado en Alemania con simulaciones informáticas parece haber revelado lo que sucede: las radiaciones ultravioletas excitarían los electrones de las moléculas de dicha materia, y así se generarían intermediarios claves para la síntesis de moléculas orgánicas.

Una simulación ayuda a comprender la aparición de la vida a partir de materia inerte
¿Cómo es posible que un organismo complejo se desarrolle a partir de materia inerte? ¿Cómo pueden los materiales sin vid…
Tendencias 21 (Madrid). ISSN 2174-6850

Western Digital se hace con el fabricante de SSDs profesionales sTec

Western Digital se hace con el fabricante de SSDs profesionales sTec:
Filed under:

Western Digital se hace con el fabricante de SSDs profesionales sTec

Los discos duros de platos con los que todos hemos crecido, están empezando a perder terreno rápidamente frente a la invasión NAND. El aumento de la capacidad de los discos de estado sólido, unido a la reducción del precio del MB, ha puesto en peligro la supervivencia a largo plazo de fabricantes de unidades tradicionales como Western Digital, que no quiere esperar a que pinten bastos para cambiar de estrategia. La compañía saltó hace tiempo al segmento SSD gracias a la compra de SiliconSystems, y ahora redobla sus esfuerzos con la adquisición de la firma estadounidense sTec.

Western Digital pagará 340 millones de dólares como parte de la operación, que le permitirá incrementar su cuota de mercado en el mercado de las SSD de tipo profesional, que es el terreno de juego de sTec. La compañía pasará a integrarse en HGST, una filial de Western Digital, donde probablemente seguirá desarrollando unidades de disco de estado sólido orientadas a centros de datos y servidores que requieran una gran velocidad de acceso a la información de sus usuarios.

Read | Permalink | Email this | Comments

Identifican el mecanismo molecular que hace que las plantas adquieran su forma

Identifican el mecanismo molecular que hace que las plantas adquieran su forma: Investigadores del CSIC han identificado parte del mecanismo molecular que coordina la dirección de la expansión celular de las plantas, un proceso que hace que éstas adquieran su forma. La investigación podría tener importantes aplicaciones en el sector agronómico, ya que proporciona claves para modular la forma de las plantas.

Identifican el mecanismo molecular que hace que las plantas adquieran su forma
Investigadores del Consejo Superior de Investigaciones Científicas (CSIC) han identificado parte del mecanismo molecular que coordin…
Tendencias 21 (Madrid). ISSN 2174-6850

Una solución de agua y azúcar hace transparentes los tejidos

Una solución de agua y azúcar hace transparentes los tejidos: Científicos del centro de investigación RIKEN de Japón han desarrollado una nueva solución acuosa que convierte los tejidos en transparentes en sólo tres días, sin modificar la forma y la naturaleza química de cada muestra. Combinando esta solución con microscopía de fluorescencia los científicos han consesguido obtener imágenes detalladas del cerebro de un ratón.

Una solución de agua y azúcar hace transparentes los tejidos
Científicos del centro de investigación RIKEN de Japón han desarrollado una nuev…
Tendencias 21 (Madrid). ISSN 2174-6850

La ciudad como reactor de fusión estelar

La ciudad como reactor de fusión estelar:

Una ciudad es como una estrella que atrae gente y acelera las relaciones sociales y los resultados sociales de una manera análoga a como una estrella comprime materia y la fusiona para producir luz.

Foto

Las ciudades han sido comparadas a colonias de insectos, como los hormigueros o colmenas y también a una red de ríos, pero estas y otras analogías fallan a la hora de capturar la esencia de cómo funcionan las ciudades.

Luis Bettencourt, del Instituto Santa Fe, sugiere que una ciudad es algo nuevo en la Naturaleza: una especie de reactor social que es parte estrella y en parte red.

“Es un tipo de sistema complejo enteramente nuevo que los humanos han creado”, dice. “Hemos inventado intuitivamente la mejor manera de crear redes sociales vastas embebidas en el espacio y el tiempo y las mantenemos en crecimiento y evolucionando sin parar. Cuando eso es posible una especie social puede mantener maneras de ser increíblemente productiva e inventiva”.

En su artículo, publicado en Science, Bettencourt deriva una serie de formulas matemáticas que describen cómo las propiedades en una ciudad varían en función de su tamaño y propone un marco cuantitativo unificado para entender cómo las ciudades crecen y funcionan.

Su marco teórico predice bastante bien docenas de relaciones estadísticas observadas en miles de ciudades reales en todo el mundo de las que hay disponibles datos fiables.

Bettencourt sostiene que, según las ciudades se expanden por todas partes, es necesario comprender más cuantitativamente cómo funcionan y que sólo a través de esta mejor comprensión seremos capaces de agarrar las oportunidades que las ciudades crean y tratar de evitar algunos de los inmensos problemas que presentan. Este marco es un paso hacia una mejor compresión de la funcionalidad de las ciudades en todas partes.

Lo que ha hecho posible esta nueva visión de las ciudades ha sido el aumento de oportunidades en años recientes para recolectar y compartir datos sobre muchos aspectos de la vida urbana. Con estos datos ha sido posible el estudio de las propiedades básicas de las ciudades en términos de patrones estadísticos generales, como variables en el uso del suelo, infraestructura urbana y tasas de actividad socioeconómicas.

Durante más de una década este investigador y miembros del Instituto Santa Fe usaron estos datos para crear los cimientos de una teoría cuantitativa de la ciudad. Para ello usaron, por ejemplo, el tamaño de la ciudad, el número de patentes producidas, la longitud total de carreteras o el número de interacciones sociales que sus habitantes disfrutan. Esto les permitió crear ecuaciones y modelos.

Bettencourt encuentra una metáfora basada en la Física de las estrellas para ilustrar el nuevo marco conceptual de las ciudades. Según él una ciudad es como una estrella que atrae gente y acelera las relaciones sociales y los resultados sociales de una manera análoga a como una estrella comprime materia y la fusiona para producir luz, cuanto más grande es una estrella más brillante es. Sin embargo, se trata sólo una analogía, porque las matemáticas implicadas son distintas.

Además las ciudades son redes sociales masivas que están hechas tanto de gente como de sus contactos e interacciones. Estas interacciones sociales suceden dentro de otras redes y permite a la gente, a las cosas y a la información encontrarse en el espacio urbano.

Al final las ciudades alcanzan algo muy especial según crecen. Las ciudades dan lugar a la creación de una red social más densa y grande que anima a la gente a aprender, especializarse y depender unos de otros de una manera más profunda y nueva, lo que aumenta la extensión y calidad de las infraestructuras. Realizan esto de tal modo que el nivel de esfuerzo que cada persona necesita hacer para interaccionar dentro es estas redes en crecimiento no necesita aumentar.

Cómo estas redes encajan unas con otras y las tensiones e intercambios entre ellas determinan frecuentemente cómo de productiva y próspera es una ciudad.

Este estudio tiene implicaciones prácticas sobre las políticas de planificación urbana. Para mantener este reactor de redes sociales trabajando de manera óptima los planificadores deben promover políticas que creen interacciones sociales positivas a bajo costo en términos de movilidad y uso de energía, por ejemplo.

En el artículo se muestra que los obstáculos a la socialización, como el crimen y la segregación, o lo que facilita la habilidad de conectar entre la gente, como el transporte y la electricidad forman parte de la misma ecuación.

En el artículo se nombran ciudades por debajo del nivel óptimo en términos de interacción social como Brownsville (Texas) o Riverside (California) y podrían verse beneficiadas de políticas que mejoren la conectividad.

Copyleft: atribuir con enlace a http://neofronteras.com/?p=4140

Fuentes y referencias:

Nota de prensa.

Artículo original.

Foto: NeoFronteras.

Fotosíntesis artificial basada en ADN

Fotosíntesis artificial basada en ADN:
Consiguen que se autoensamble un sistema que combina hebras de ADN con moléculas de tinte para así formar una antena molecular para la fotosíntesis artificial.

Foto
Esquema del sistema molecular conseguido. Fuente: Universidad Tecnológica de Chalmers.

Debido al problema del cambio climático y crisis energética permanente se ha vuelto la vista hacia las fuentes alternativas de energía, como la solar. Al fin y al cabo la Tierra recibe en una hora la energía que consume la humanidad en un año.

La aproximación habitual es la energía fotovoltaica o la termoeléctrica, pero también se está investigando en el campo de la fotosíntesis artificial.

Se puede intentar usar la plantas tal cual (biomasa y biodiesel, bioetanol…), pero no es rentable a gran escala, pues la fotosíntesis natural tiene un rendimiento de un 1% o un 2%. Por otro lado la fotosíntesis artificial trata de replicar el efecto fotosintético con un rendimiento mayor. Pero hay que superar muchos obstáculos hasta que se consiga algo comercial basado en esa idea.

Entre los problemas a solucionar está el encontrar una antena que capte de manera efectiva los fotones de luz. El primer paso de la fotosíntesis es precisamente esa captura y luego viene el transporte de esa energía y su conversión en energía química.

Un equipo de investigadores de Universidad Tecnológica de Chalmers ha encontrado una solución para la construcción de la antena: combinar hebras de ADN con moléculas de tinte. El sistema se asemeja al natural. El ADN actúa de andamiaje para crear un sistema que permita recolectar la luz.

En las plantas este andamiaje consiste en un elevado número de proteínas que organizan las moléculas de clorofila para que capten bien la luz del Sol, pero este sistema es básicamente muy complejo y casi imposible de replicar de manera artificial.

La clave del asunto está en que todo se pierde si las uniones se rompen. Usando ADN se puede conseguir un sistema autoconstruido que tenga la suficiente precisión y que además se repare a sí mismo.

Se podría intentar colocar cada componente uno a uno, pero es mejor que, como en este caso, el sistema se construya a sí mismo y se autoensamble, lo que se aproxima a lo que ocurre en el mundo natural.

La ventaja de este método es que si una molécula recolectora de este tipo se rompe, entonces es automáticamente reemplazada por otra un segundo más tarde. Según esto se trata de un sistema auto-reparable distinto al método habitual en el que un investigador dirige la síntesis.

En la fotosíntesis natural las plantas, algas y bacterias fotosintéticas mueven la energía obtenida de la luz del Sol hacia en centro de reacción en donde se sintetizan azúcares y otras moléculas orgánicas, pero todavía no se tiene un equivalente sintético a esos centros de reacción. Aunque según los investigadores implicados se ha creado la parte más complicada de todo el asunto, que es la antena.

Para este logro se han valido de nanotecnología de ADN. Las hebras de ADN que han usado tienen la habilidad de pegarse unas a otras de una manera predecible. Si se proporcionan las instrucciones de ensamblado correctas, el ADN puede formar la forma adecuada de manera automática en el tubo de ensayo. Es como un rompecabezas en el que las piezas encajan unas con otras de una manera específica y además se unen por ellas solas.
Copyleft: atribuir con enlace a http://neofronteras.com/?p=4141
Fuentes y referencias:

Nota de prensa.

Artículo original

Un bug en Facebook expuso datos personales de seis millones de usuarios

Un bug en Facebook expuso datos personales de seis millones de usuarios:

Un bug en Facebook expuso datos personales de seis millones de usuarios

“En [inserte nombre de compañía] nos tomamos la privacidad del público seriamente”; cuando veas que estas son las primeras palabras de un comunicado oficial, prepárate para lo peor. Tal vez por eso nuestra sorpresa ha sido nula cuando hemos leído un anuncio de Facebook en el que la red social dirigida por Mark Zuckerberg ha reconocido que un bug en su sistema de seguridad dejó al aire información personal de seis millones de usuarios.

En un artículo publicado en el blog oficial de Facebook, el equipo de seguridad de la empresa explica que la información que utilizan para enviar recomendaciones de amigos fue “almacenada de forma inadvertida con la información de contacto de la gente como parte de su cuenta en Facebook”, permitiendo que personas “que ya conoces fuera de Facebook vieran el correo electrónico o número de teléfono”. El fallo fue detectado a través del programa de hackers de sombrero blanco (benévolos) de Facebook, utilizado para detectar agujeros de seguridad.

Hemos concluido que aproximadamente 6 millones de usuarios de Facebook han visto compartidas sus direcciones de correo electrónico o números de teléfono. Hubo otras direcciones de correo electrónico o números de teléfonos incluidos en las descargas, pero no estaban conectados a ningún usuario de Facebook o nombres de personas. Casi todas las direcciones de correo electrónico o números afectados sólo fueron incluidos en una descarga o dos. Esto significa que en la mayoría de los casos una dirección de correo o número de teléfono sólo fue expuesto a una persona. Adicionalmente, no se incluyeron otros tipos de información personal o financiera, y sólo las personas en Facebook (no los desarrolladores o los anunciantes) tienen acceso a la herramienta DYI [Download Your Information].

Según Facebook, el fallo fue resuelto en menos de 24 horas, lo que no sólo ilustra la velocidad de respuesta de Facebook, sino también lo poco que cuesta “perder” los datos personales de millones de personas cuando eres la mayor red social del mundo. A continuación encontrarás el mensaje que está llegando a los buzones de los usuarios afectados.
Continue reading Un bug en Facebook expuso datos personales de seis millones de usuarios

Read | Permalink | Email this | Comments

La familia Snapdragon 200 de Qualcomm crece con seis nuevos chips

La familia Snapdragon 200 de Qualcomm crece con seis nuevos chips:
Filed under: ,

La familia Snapdragon 200 de Qualcomm crece con seis nuevos chips

Está claro que Qualcomm ha calentado ya motores en lo que llevamos de 2013, y tras el estelar lanzamiento del potentísimo Snapdragon 800, le toca el turno a la familia Snapdragon 200, que se ve reforzada con hasta seis nuevos procesadores orientados fundamentalmente a los mercados emergentes. Estos chips llegarán con CPUs tanto dual como quad-core y fabricados con tecnología 28 nm, incorporando tanto HSPA+ (hasta 21 Mbps) como TD-SCDMA. Los nuevos SoC han sido optimizados para proporcionar un óptimo rendimiento multimedia y una extensa duración de la batería, soportando cámaras duales (hasta 8 MP en la trasera y 5 MP en la frontal), múltiples SIM, tecnología de localización iZat y Quick Charge 1.0.

La gama cuenta también con la gráfica Adreno 302 haciendo que estos procesadores sean idóneos para dispositivos Android, Windows Phone y Firefox OS. El fabricante espera comenzar a comercializar estos chips a finales de año.

Permalink | Email this | Comments

El Samsung Galaxy S 4 zoom se pasea frente a nuestro objetivo

El Samsung Galaxy S 4 zoom se pasea frente a nuestro objetivo:
Filed under: , , ,

El Samsung Galaxy S 4 zoom se pasea frente a nuestro objetivo

¿Es un teléfono o es una cámara? Y si es ambos… ¿es más cámara que teléfono o más teléfono que cámara? No se puede negar que el Galaxy S 4 zoom es un producto con cierto trastorno de la personalidad, pero estamos seguros de que Samsung no sólo es consciente, sino que piensa explotar hasta donde pueda esta singular dualidad. El sucesor del Galaxy Camera acaba de ser presentado oficialmente en Londres antes de que el modelo original haya cumplido siquiera su primer año de vida en el mercado, pero lo hace con novedades lo suficientemente importantes como para justificar tan pronta aparición: de entrada, ya no sólo permite enviar fotos a través de internet o colgarlas en las redes sociales, sino que también permite hacer y realizar llamadas. Es, posiblemente, el teléfono cámara más fiel a su particular segmento desde el 808 PureView de Nokia.

Como el Galaxy Camera que todos conocemos, el punto fuerte del Galaxy S 4 zoom es su capacidad para tomar imágenes, editarlas, organizarlas y compartirlas de forma inmediata, sin necesidad de conectarlo a tu PC o buscar una conexión a internet. Para ello, este nuevo modelo ha sido armado con un procesador de doble núcleo a 1,5 GHz, 1,5 GB de RAM y 8 GB de memoria interna ampliable con tarjetas microSD; no son realmente las características del auténtico SGS4, aunque tampoco va manco. La estrella del conjunto, en cualquier caso, es un sensor BSI de 16 megapíxeles, apoyado en un zoom 10x y dotado con estabilización de la imagen. Samsung presume de que es el mayor zoom óptico incorporado en un producto de este tipo, pero es que además el tipo de sensor y sus grandes dimensiones le permiten captar una enorme cantidad de luz frente a la inmensa mayoría de los teléfonos móviles, que poco tienen que hacer ante un sensor de auténtica cámara compacta.

Continue reading El Samsung Galaxy S 4 zoom se pasea frente a nuestro objetivo

Permalink | Email this | Comments

La FAA podría permitir el uso de dispositivos electrónicos en vuelo en breve (según WSJ)

La FAA podría permitir el uso de dispositivos electrónicos en vuelo en breve (según WSJ):
Filed under: , ,

La FAA podría permitir el uso de dispositivos electrónicos en vuelo en breve (según WSJ)

“…Y desconecten todos sus dispositivos electrónicos”, es la cantinela a la que estamos acostumbrados y que precede a la obligación de poner en modo avión el móvil y apagar tablets y demás equipos. El debate sobre si esta rigurosa medida es excesivamente dura o no ha estado siempre sobre la mesa, pero parece que por fin podrían suavizarse los requerimientos a bordo. Según hemos podido leer en el Wall Street Journal, la FAA (la autoridad aeronáutica de Estados Unidos) estaría considerando suavizar una estricta normativa que lleva vigente e inalterada desde 1966.

Según este rotativo, un equipo de expertos de la industria aeronáutica de aquel país habría recomendado una relajación de las normas y con un sólido argumento: el grupo sostiene que en los vuelos actuales son muchos los viajeros que se olvidan de apagar sus móviles y no hay absolutamente ninguna consecuencia en el vuelo. Y si todo va según lo tratado en la mesa, la FAA permitiría el uso de determinados equipos en pleno vuelo, y en el espacio aéreo del país, lógicamente. ¿Qué tipo de equipos y bajo qué circunstancias? Todavía no han trascendido los detalles, pero parece que la decisión final se adoptará el próximo mes de septiembre.

Read | Permalink | Email this | Comments

Hispasat y LG llegan a un acuerdo para impulsar la televisión Ultra HD en España y Latinoamérica (¡con vídeo!)

Hispasat y LG llegan a un acuerdo para impulsar la televisión Ultra HD en España y Latinoamérica (¡con vídeo!):
Filed under: , ,

Hispasat y LG llegan a un acuerdo para impulsar la televisión Ultra HD en España y Latinoamérica (¡con vídeo!)

Raro es el día en que por un motivo u otro, no acabamos hablando del 4K, pero la cuestión que todos tenemos probablemente en mente es cuándo comenzará a materializarse definitivamente en nuestros hogares. Hoy parece que estamos un pasito más cerca de conseguirlo en España y Latinoamérica ya que Hispasat ha firmado esta mañana un acuerdo de colaboración con LG para impulsar la televisión en Ultra HD en dichas zonas (y, como puedes imaginar, allí estábamos libreta en mano para enterarnos de todos los detalles).

Básicamente esta alianza pretende dar un empujoncito al desarrollo, conocimiento y expansión de esta resolución, hasta convertirla en algo mucho más cotidiano. Para la muestra, la operadora española de comunicaciones andaba mostrando una pequeña demostración de contenidos similar a la realizada el pasado mes de marzo, sólo que esta vez con ayuda del inmenso televisor de 84 pulgadas presentado recientemente por LG, que por cierto ya se puede adquirir en España por un precio de entre 14.000 y 19.000 euros, dependiendo de sus prestaciones.
Continue reading Hispasat y LG llegan a un acuerdo para impulsar la televisión Ultra HD en España y Latinoamérica (¡con vídeo!)

Permalink | Email this | Comments

Un eficaz método transforma el CO2 en metanol para usarlo como combustible limpio

Un eficaz método transforma el CO2 en metanol para usarlo como combustible limpio: Científicos de la Universidad Laval (Canadá) han desarrollado un método químicamente muy eficiente para transformar el CO2 en metanol, que puede ser utilizado como combustible limpio. El catalizador desarrollado no contiene metal, lo que reduce los costos y la toxicidad. El problema es que el hidrógeno necesario para la reacción es caro de obtener.

Un eficaz método transforma el CO2 en metanol para usarlo como combustible limpio
Investigadores de la Universidad Laval (Ciudad de Quebec, Canadá) han desarrollado un método muy eficaz para la conversión de CO2 en metanol…
Tendencias 21 (Madrid). ISSN 2174-6850

Posible hallazgo de una nueva partícula subatómica en dos aceleradores orientales

Posible hallazgo de una nueva partícula subatómica en dos aceleradores orientales: Científicos de un acelerador de partículas de Japón, por un lado, y de uno de China, por otro, han coincidido en detectar lo que podría ser una nueva partícula , llamada Zc (3900), formada por cuatro quarks, algo nunca visto hasta el momento. Todavía hay que confirmar que se trata de una sola partícula y no de dos en interacción, cada una formada por dos quarks.

Posible hallazgo de una nueva partícula subatómica en dos aceleradores orientales
El detector Belle del acelerador de partículas KEKB, en Japón, y el detector Beijing Spectrometer III (BES III) de otr…
Tendencias 21 (Madrid). ISSN 2174-6850