rmbit - La bitácora personal de Ricardo Martín
La bitácora personal de Ricardo Martín
Comentando cosas desde 2004
26 de octubre de 2009

Más allá del Terabyte

En 1981, el primer IBM PC contaba como opción con un disco duro de 20 Mb, una cantidad de información enorme para unos tiempos en los que el sistema operativo (el famoso MS-DOS) ocupaba decenas (quizás algún centenar) de Kilobytes, nadie manejaba imágenes de calidad fotográfica por ordenador y mucho menos clips de audio o vídeo. Entonces 20 Mb eran más que suficientes para cumplir con las exigencias de cualquier usuario, incluso el más profesional. Hoy, en 20 Mb podemos guardar un clip de vídeo de no demasiada duración, tres o cuatro canciones o varias fotos de las que sacan cualquier cámara digital de hoy día.

A lo largo de las últimas dos décadas hemos asistido a un crecimiento exponencial de los tamaños de los dispositivos de almacenamiento que llevan los ordenadores que manejamos cotidianamente. Primero se quedaron cortos los Megas y, en la segunda mitad de los noventa surgieron los primeros discos duros de 1 Gigabyte, una barrera a la que nunca pensamos que llegaríamos. Después vendrían los «ripeos» de DVDs y con ello, el Giga se quedó pequeño. El reinado del Giga terminó hace no mucho tiempo. Hace cosa de dos años o así los fabricantes lanzaron los primeros discos de 1 Terabyte. Giga y Tera están separados aproximadamente por una década. ¿Necesitaremos dentro de otros diez años dar un nuevo salto hacia el siguiente escalón?

Por curiosidad he estado echando un vistazo a las unidades de almacenamiento según el Sistema Métrico Internacional. Todos sabemos que más allá del Gigabyte está el Pettabyte (Pb) (o Petabyte con una «t», no está claro todavía), que son 1.000 Gb. Y todavía más allá encontramos el Hexabyte (Hb), que equivalen a 1.000.000 de Gb. Los siguientes escalones, que casi nos suenan a ciencia-ficción, son el Zettabyte (Zb) (1.000.000.000 Gb) y el Yottabyte (Yb) (1.000.000.000.000 Gb), que de momento es lo último que ha contemplado el estándar definido en 1991… ¿Llegaremos a ver con nuestros ojitos estas cantidades de información tan gigantescas o se estancará en algún punto?

29 de septiembre de 2009

Ray Kurzweil

Que el mundo de la tecnología siempre ha tenido sus gurús y sus profetas no es nada nuevo. Desde los primeros tiempos de la técnica moderna tal y como hoy la conocemos ha habido quien se ha aventurado a predecir y a teorizar aquello que ocurrirá y cómo esa tecnología afectará al ser humano. Pero pocos han tenido tanto éxito y han sido tan influyente dentro de la comunidad especializada como Raymond Kurzweil. Hijo de emigrantes judíos austríacos, Kurzweil fue un avanzado a su tiempo desde muy joven. Su tío trabajaba en los laboratorios Bell y fue quien le inculcó esa afición por la tecnología y los ordenadores hacia los años cincuenta, cuando la mayoría de los niños de su edad sólo los conocían por las novelas de ciencia-ficción.

Apenas siendo un adolescente comenzó a crear aplicaciones informáticas en el campo de la estadística y el análisis de datos. Uno de los momentos cumbre de sus primeros años fue su participación en 1965 en el programa de televisión ‘I’ve Got a Secret’, donde presentó una melodía tocada al piano que tenía la particularidad de estar compuesta íntegramente por un ordenador. De hecho, esa fue y es una de sus obsesiones: conseguir que los computadores sean tan inteligentes o más que los propios humanos y que nos ayuden en nuestra vida diaria y a resolver nuestras limitaciones y problemas. Kurzweil sostiene, en contra de otros autores, que en pocos años un ordenador tendrá la inteligencia suficiente como para superar el Test de Turing. Esta simbiosis entre el ser humano y la máquina (implantes, nanotecnología) para que nuestra raza mejore a través de la tecnología es lo que se ha llamado transhumanismo, del que Kurzweil es su principal exponente en la actualidad.

Otro de los campos en los que Kurzweil es respetado y escuchado es en el de las profecías tecnológicas. La mayoría de sus vaticinios se han cumplido finalmente en los plazos que él ha indicado. Predijo en su libro ‘La Era de las Máquinas Espirituales’ de 1999 el uso masivo de la tecnología inalámbrica para la interconexión de dispositivos y redes, la utilización de pantallas de alta definición o el triunfo de los dispositivos portátiles frente a los clásicos ordenadores de sobremesa.

Particularmente, a mí me da un poco de miedo eso de que la los ordenadores puedan aprender más rápido que nosotros y que en pocos años dupliquen, tripliquen o quizás más nuestros conocimientos y sobre todo nuestra inteligencia. Como mínimo es preocupante. Aunque también apasionante. ¿Qué nuevos movimientos sociales, artísticos o de otro tipo podrán surgir cuando la inteligencia de las máquinas sea miles de veces la nuestra? ¿Acaso las máquinas nos prometerán algún día la vida eterna y serán inconcebiblemente inteligentes? ¿Sería eso Dios? Curiosamente estas preguntas nos llevan hasta Pierre Teilhard de Chardin y su teoría del Punto Omega.

Para terminar un par de vídeos. El primer es el del programa ‘I’ve Got a Secret’. Cuando a la mayoría eso de los ordenadores les sonaba a chino, este angelito ya tocaba melodías compuestas por uno. Era ¡1965!:

El programa Redes de Televisión Española con Eduardo Punset entrevistó en una ocasión a Ray Kurzweil:


Ray Kurzweil: El futuro
Cargado por raulespert. – Más vídeos de ecología, sostenibilidad y economía social.
5 de septiembre de 2009

El leopardo de las nieves ya está en casa

En los mentideros maqueros no se habla de otra cosa: Snow Leopard. Dos palabras mágicas que definen el que quizás sea el cambio más radical y menos visible de la historia de los sistemas operativos para Mac. Porque, en realidad, lo único que no ha cambiado (salvo pequeños detalles) es el interfaz de usuario. Todo lo demás ha sido redefinido, reescrito y, entre otras cosas, rompe definitivamente la compatibilidad con los procesadores PowerPC que montaban los Mac antes de 2006. Además se trata de un sistema operativo íntegramente escrito en 64 bits, aunque con posibilidad de funcionar en 32. Este aspecto es un jaleo tremendo en el que no he entrado demasiado.

Nada más recibir el paquete corrí a instalarlo de cero en el MacBook. Porque, aunque sea una actualización, se puede instalar sin tener nada en el disco duro. Se ha comentado que es la única manera de experimentar la prometida mejora de velocidad, tanto de arranque y cierre como de funcionamiento. Tras esta primera instalación «de prueba» en el portátil pude comprobar por mí mismo que eso de la velocidad no era una estrategia de marketing: es verdad que va bastante más rápido y las animaciones son mucho más ligeras y no se entrecortan como antes. Las aplicaciones también abren más rápido (por ejemplo Adobe Photoshop CS4 abre en unos 3 o 4 segundos). Ahora tocaba instalarlo en el iMac, pero esta vez mediante un proceso de actualización. El proceso fue algo más lento (una hora más o menos) y le costó algo de trabajo completar los últimos detalles. Todavía quedan algunos aspectos que no funcionan al 100% y otros dan algunos pequeños errores. Por ejemplo, el nuevo QuickTime X se lleva mal con algunos plugins de QuickLook que funcionaban perfectamente con la versión anterior. Pero son cosas previsibles que iré puliendo a mano poco a poco. En cuanto a la diferencia de rapidez entre instalación nueva y actualización, la verdad es que es imperceptible.

Cuando instalamos de cero lo primero que vemos es el nuevo fondo de escritorio, llamado Aurora, similar al de Leopard. Si entramos en las opciones para cambiarlo, nos encontramos también con nuevos tapices. Entre ellos el de nuestro amigo el leopardo de las nieves que nos mira desde el otro lado de la pantalla. Uno de los detalles que han cambiado son los menús contextuales del dock. Ahora tienen fondo oscuro y letras blancas. En mi opinión rompe el aspecto general de todos los menús de Mac OS X sin un motivo claro. En relación con el dock, otro cambio es que ahora podemos navegar por el interior de las retículas, una cosa que echábamos de menos. Pero tal vez el cambio más importante no es en sí del sistema operativo, sino en el antes comentado QuickTime X, que ha sido reescrito completamente (algo que no se había hecho nunca). El interfaz cambia radicalmente y ya no hereda ninguno de los antiguos controles que nos han estado acompañando desde que QuickTime existe. Ahora es más rápido e incorpora nuevas funciones en las que no he podido meterme todavía por falta de tiempo. Otros retoques menores afectan a Exposé o al renderizado de fuentes, que ahora parecen más «rotundas».

En definitiva, los maqueros ya tenemos sistema operativo para rato. Inteligentemente, la gente de Apple no ha tocado lo que funcionaba y ha dotado a todo el conjunto de una mayor solidez y, sobre todo, rapidez.

Mac OS X Snow Leopard from Ricardo Martín on Vimeo.

3 de septiembre de 2009

Primeras impresiones con el NAS

Por fin llegó el NAS que pedí hace cosa de una semana. Tras algunas pequeñas vicisitudes me lo trajeron a casa. En mi caso me decidí por un Synology DS209j, un modelo que tiene dos bahías para sendos discos duros SATA2 de 3,5 pulgadas y de hasta 1 Tb cada uno. Decidí ponerle un Seagate de 1 Tb. En realidad, el NAS es un ordenador en miniatura dedicado íntegramente a hacer las veces de servidor de red en el amplio sentido de la palabra (servidor de almacenamiento, de correo electrónico, de FTP, de web, de descarga, de música, etc). Tras la instalación del disco lo conecté, y, a pesar de que tiene un ventilador similar al de un ordenador, la primera sensación fue que era mucho más silencioso de lo que me imaginaba, porque apenas se oye nada. El siguiente paso fue instalar el software de administración en el ordenador. El asistente que se encarga de formatear y preparar el disco duro para posteriormente instalar todo el sistema que nos permitirá controlar el NAS desde cualquier ordenador. Este proceso, en mi caso, duró unos cuarenta y cinco minutos más o menos.

Una vez realizadas todas estas tareas, es momento de meterse de lleno con la configuración. Todo el sistema se controla desde un interfaz web, lo cual tiene sus ventajas y sus inconvenientes. La ventaja está clara: es multiplataforma. El incoveniente quizás no lo sea tanto: no resulta tan versátil como una aplicación instalada en el propio ordenador. Con esto no quiero decir que no esté bien, pero cuesta acostumbrarse a tener determinadas aplicaciones vía web, con las peculiaridades que esto conlleva. Otra cosa que no me gusto mucho fue lo poco transparente que es la creación de los volúmenes del disco. Apenas ofrecen información sobre lo que es realmente un volumen (es una especie de partición), pero es un paso imprescindible para seguir adelante. Después de cumplido este paso lo siguiente es activar los servicios y aplicaciones que vamos a utilizar. En mi caso la función principal iba a ser la de descargas mediante Bittorrent y eMule a través de Download Station, por lo que tuve que crear dos carpetas compartidas en el NAS para alojar aquellos ficheros que se fueran descargando. También activé el servidor de iTunes, para poder escuchar música de mi biblioteca musical desde cualquier ordenador con acceso a mi red local (aunque todavía no lo he hecho funcionar) y File Station, una aplicación para poder gestionar carpetas y archivos.

Hasta el momento, lo que más he podido explorar es el Download Station, un completo sistema para la descarga mediante redes p2p. Es inevitable compararlo con el eMule tradicional que podemos instalar en cualquier ordenador. En cuanto a rendimiento y funcionamiento general, el Download Station gana por goleada, tanto en servidores, en ficheros encontrados cuando hacemos una búsqueda e incluso en velocidad de descarga. Por contra, el interfaz deja mucho que desear. No vemos esas vistosas barras de colores con el porcentaje descargado ni tampoco podemos previsualizar los vídeos antes de finalizar la descarga. Es verdad que no son más que pequeños detalles, pero que estaría bien que se mejoraran en el futuro.

En definitiva, las posibilidades del NAS son muchísimas y pasa por ser uno de los artefactos más versátiles que haya visto nunca y por un módico precio que en mi caso no ha superado los 200 euros. Ahora sólo el tiempo y la curiosidad me permitirán ir desgranando poco a poco todo lo que este aparatito es capaz de hacer.

4 de agosto de 2009

Hojas de papel para guardar información

A raíz de un artículo que el otro día publicaba el blog Microsiervos sobre mecanismos para almacenar datos en papel, me puse a investigar un poco sobre el tema en cuestión. Guardar información en papel mediante representaciones gráficas es algo que, desde que existe la informática, han perseguido los programadores e ingenieros. De hecho, el primer método eficaz para guardar información y reutilizarla posteriormente fueron las tarjetas perforadas, unas cartulinas rectangulares donde se practicaban agujeros en los lugares adecuados. Pero hay otros muchos métodos de almacenar pequeñas cantidades de información en papel sin ser necesariamente texto legible. Ahí están, sin ir más lejos, los códigos de barras o los códigos QR.

Pero lo que tiene un punto friki y bizarro es el hacer copias de seguridad de nuestros datos en papel. Si no nos fiamos de los soportes magnéticos ni de los ópticos nos queda el papel. Eso al menos piensa la gente que ha desarrollado un software llamado PaperBack. Mediante este método, si tenemos una impresora láser con buena resolución, podemos guardar aproximadamente 500 Kb en cada cara de un folio A4. Para ello, PaperBack organiza los datos en recuadros y en cada uno de estos recuadros se colocan «puntitos» en posiciones estratégicas, muy parecido a un código QR. Para leer y recuperar lo guardado necesitamos un escáner que controlamos desde el propio programa.

Es evidente que esto no es un sistema eficiente para guardar grandes cantidades de información, por mucho que se diga lo contrario. Es verdad que el papel es más duradero que cualquier otro soporte convencional utilizado en informática, pero también más engorroso. Pensemos que para almacenar el contenido de un DVD necesitaríamos más de 9.000 folios… El problema del espacio no es el único. Imaginemos que dentro de cien años nos encontramos con un montón de cajas con papeles conteniendo datos valiosísimos. ¿Cómo los recuperamos? ¿De donde sacamos el software capaz de leerlo? ¿Quizás ingeniería inversa? ¿Habrá escáneres en el futuro? Además, en el supuesto caso de que consiguiéramos recuperar la información, ¿Los formatos de archivo que conocemos hoy (PDF, JPG, AVI o DOC) serán legibles en los ordenadores del próximo siglo?

De momento, tal y como se comentaba en ‘La Oscura Era Digital’, la única forma de asegurar que en el futuro puedan leer nuestro legado es guardarlo en formatos literales (imágenes en formato diapositiva o similar, vídeos en película clásica de cine, texto en planchas de material duradero y audio en discos de microsurcos, etc). Sólo la vuelta a los medios analógicos asegurará esa pervivencia.

30 de julio de 2009

NAS, almacenamiento de datos y descargas sin ordenador

El otro día, al actualizar la copia de seguridad de mi iMac con Time Machine, me di cuenta de que el disco duro que utilizo para hacer las copias estaba empezando a sufrir achaques. Por alguna razón se cortaba mientras estaba haciendo la copia. Después de muchos intentos conseguí realizar tan crítica tarea, pero fui consciente de que era el momento de cambiar mi viejo disco externo de 200 Gb montado «a mano» sobre una carcasa por otro de más capacidad. Al mismo tiempo, hace no mucho tiempo leí en el blog Xataka un interesante análisis de un nuevo NAS de Synology. Un NAS, Network-Attached Storage o almacenamiento conectado a la red, es, como su nombre indica, un dispositivo que, una vez conectado a nuestro router ADSL, hace las veces de servidor de datos, pudiendo almacenar en él (por ejemplo) copias de nuestros datos importantes o simplemente como sistema de almacén de información que queremos que esté accesible desde todos los hosts de la red o desde los que nosotros queramos.

La moda de los NAS comenzó hace no mucho tiempo. Una notable bajada de los precios y modelos más versátiles y completos han hecho que estos aparatos comiencen a ser populares entre los usuarios avanzados de informática y las pequeñas empresas como una solución fácil para copias de seguridad. Pero a esto hay que añadir que en la última generación de NAS se ha incorporado una función que a más de uno nos pone los dientes largos: gestor de descargas. Muchos de los dispositivos de almacenamiento de red ya incorporan la posibilidad de realizar descargas de las redes p2p más conocidas (eMule, Bittorrent), descargas FTP y HTTP, directas a través de servicios tipo Rapidshare o Megaupload, o descargas a partir de archivos RSS. Y lo mejor de todo es que no es necesario un ordenador, ya el sistema NAS es totalmente autónomo, silencioso y de tamaño bastante reducido. Otras prestaciones que vienen a completar los múltiples usos de estos equipos son la posibilidad de montar un servidor web o un servidor de iTunes en él. Incluso hay unos cuantos preparados para poder ser utilizados directamente con Time Machine.

Quizás la principal pega sea el precio. Un modelo con todas las características que he comentado antes y cuatro bahías SATA para discos duros de 2,5 pulgadas viene a tener un precio a partir de los 350 euros, aunque los hay de una bahía por menos de 150. Todo es cuestión de buscar lo que más se adapte a nuestras necesidades. A esto hemos de sumarle el coste de un disco duro (que no suele venir con el aparato) o de los que queramos poner. Synology es una de las marcas punteras y en su web pueden verse multitud de modelos de todos los precios. Tal vez sea esta la solución que estaba buscando…

Os dejo con el vídeo del análisis del que os hablaba al principio:

25 de julio de 2009

Más allá de Second Life

No sé por qué azares del destino me decidí a volver a Second Life casi dos años después de certificar su declive. El descarado mercantilismo, la exagerada cobertura en los medios, que tal vez por puro desconocimiento quiso ver más allá de lo que en realidad era, conduciría posteriormente a una decepción en masa. En aquel artículo sobre la decadencia de Second Life aludía a lo dicho por David de Ugarte en su blog al respecto. El caso es que he vuelto a entrar con un personaje nuevo. Es verdad que sigue entrando gente nueva, pero la cosa definitivamente no ha cuajado. Demasiadas zonas privadas, demasiada gente a la caza del dinero fácil y poco (o nada) auténticamente interesante que ver o que hacer. Coincidiendo con este retorno mío a los cibermundos, vuelvo a encontrarme con un artículo con la siempre estimable firma de De Ugarte que trata sobre estos mundos virtuales.

Después del mero «juguete» que supuso Second Life, muchas empresas, y muy serias, siguen investigando y desarrollando dentro del mundo de los universos virtuales y de la realidad virtualizada. En el ámbito hispano destaca Hispagrid, una comunidad (o según sus palabras «un grupo de pirados») que entiende el futuro de internet como una interacción en un mundo tridimensional artificial, siempre bajo la filosofía del código abierto. Es, como vemos, un paso natural (quizás muy aventurado todavía) que nos conduce hacia una nueva forma de entender la comunicación con los demás y la prestación de servicios.

Existen varias herramientas de código abierto que nos permiten jugar un poco con esto de los mundos virtuales, pero la que por el momento se lleva la palma por su versatilidad y modularidad es OpenSim, un servidor de aplicaciones tridimensionales que nos proporciona todo lo necesario para desarrollar en un entorno 3D. Más allá de ser una mera curiosidad, OpenSim puede ser útil para crear entornos de realidad virtualizada, a través de los cuales se reproduzcan modelos virtuales parciales de la realidad para poder interactuar con ellos en lugar de con los reales o bien que sirvan como ayuda para comprender y gestionar mejor grandes cantidades de datos. Las aplicaciones dentro de la ciencia, la ingeniería o la medicina pueden ser casi infinitos.



rmbit está bajo una licencia de Creative Commons.
Plantilla de diseño propio en constante evolución.
Página servida en 0,047 segundos.
Gestionado con WordPress