21 de enero de 2011
De vez en cuando hago un repaso de todo aquello que voy añadiendo a los marcadores de mi navegador y que me parece curioso, útil o interesante para compartirlo con vosotros. A ver qué os parece:
15 de enero de 2011
Ya no hay duda que el asunto de Wikileaks está revolucionando el panorama de las relaciones diplomáticas internacionales y cómo los ciudadanos reciben una información –aunque sea seleccionada por un medio de comunicación– que de otro modo nunca conocerían y que tienen derecho a saber. Desde que Julian Assange fuera detenido el pasado mes de diciembre, muchos tenemos en mente un nombre, casi como si fuera un código: insurance.aes256. Como indica su nombre, se trata de un seguro de vida, el de Assange. Siguiendo sus indicaciones, si algo le ocurriera al fundador de Wikileaks se proporcionaría la llave (una clave pública) que descifraría el archivo.
A ciencia cierta muy poca gente sabe lo que contiene ese documento de casi 1 GB y medio, así que todo son especulaciones. Según unos alberga unos 200 000 documentos filtrados por la diplomacia entre 2004 y 2010 y según otros trata temas concretos, como información no conocida por el gran público sobre los hechos que tuvieron lugar en la explosión de la plataforma petrolífera de BP en el golfo de México o confidenciales sobre la base norteamericana de Guantánamo y la guerra de Afganistán. Pero realmente todo podría ser un farol. Quizás la inteligencia norteamericana ya haya conseguido romper el cifrado AES de 256 bits –el más avanzado e inexpugnable del momento–… o tal vez no.
Lo interesante del archivo insurance.aes256 es que cualquiera con conexión a internet puede descargárselo libremente a través de varios métodos. Basta con buscar el nombre del fichero en cualquier buscador y seguir las instrucciones. Pero recordad que si no se libera la clave no se puede mirar su contenido. A muchos todo esto nos puede parecer digno de una películas de espías, pero es el mundo real… ¿Si no le ocurre nada a Assange se terminará publicando la clave?
12 de enero de 2011
No son muchos los blogueros comprometidos con su bitácora hasta el punto de escribir al menos una entrada diaria. Yo, que hasta hace poco cumplía con esta sagrada regla, apenas puedo hacerlo ahora, no por aburrimiento ni por dejadez, sino por falta de tiempo. Quizás por eso —me he enterado a través del diario El País de hoy— que la gente de WordPress pusieron el pasado día 30 de diciembre una iniciativa que instaba a todos aquellos que tenían un blog alojado en sus servidores bien a postear todos los días (Post A Day 2011) o, para los menos entrenados, una vez a la semana (Post A Week 2011).
Según estudios de la propia WordPress, en 2008 menos de un 6% de los blogs que alojaba escribían a diario. Presupongo que con el auge de Facebook y Twitter este porcentaje es aún menor. Así que para ayudar a quienes quieran seguirla ofrecen un blog donde proponen ideas, temas de inspiración y técnicas para conseguirlo. Animan a que los que no la tengan se hagan una cuenta en este servicio y que los que la tengan se comprometan con su página incluyendo en sus tags la clave PostADay2011 o PostAWeek2011.
Me hubiera gustado unirme a esta iniciativa, pero ya es un poco tarde para empezar y, además, puedo presumir de haber escrito más de 350 entradas anuales durante varios años, cosa que no todos los blogueros pueden decir. Pero esos tiempos creo que ya han pasado y, como dije antes, las obligaciones terminan mandando sobre las aficiones, y muchas veces el tiempo es nuestro peor enemigo. Mucho más que la pereza.
10 de enero de 2011

Curiosamente, mi web de fotografías Cromavista ha sido una de las que más visitas ha recibido a lo largo de los ocho años y medio que lleva colgada y la que menos rediseños ha sufrido. Surgió en julio de 2002 como una web experimental y ha ido transformándose poco a poco en un sitio donde mostrar todas aquellas imágenes de viajes o eventos que han captado mis cámaras. Desde julio de 2005 no se había modificado su diseño, sólo se habían ido añadiendo más y más galerías. Sin embargo, el planteamiento para la nueva Cromavista era ir un poco más allá que el de darle un mero lavado de cara. Era el momento de redefinir toda la web a la vez que se renovaban sus contenidos.
En esta tercera versión de Cromavista se han eliminado todas aquellas fotografías anteriores a 2007 y junto con ella la mayoría de las imágenes experimentales para dar paso a un contenido más convencional. El tamaño de las imágenes pasa de 1024 píxeles de ancho a 2000, el mismo que en mi otra web de fotos, Zamora en Imágenes. También la calidad de imagen experimenta una mejora, con menos compresión de los JPGs. Finalmente, tras un proceso de selección y procesado de las imágenes que ha durado algo más de un mes, han quedado 493 fotografías a tres tamaños (2000, 600 y 150 píxeles de ancho respectivamente), repartidas en 39 galerías, en su mayoría sobre lugares y algunas sobre eventos. El peso total de la nueva web es de casi 380 MB de espacio. Ese es el punto de partida de Cromavista 3.0.
En cuanto a la parte más técnica, la web lleva bastante más tiempo de programación que su predecesora, de la que conserva muy pocos elementos. Ha sido necesario un poco de código extra para tratar y controlar las imágenes verticales que por primera vez entran en una de mis webs de fotos. Por el contrario, la parte de diseño es mucho más sencilla, pero también más clara, más robusta y también muy probada en todos los navegadores y sistemas operativos que he podido. Otro de los puntos interesantes de la nueva Cromavista es el uso de direcciones URL amigables a través de reglas de servidor htaccess, de forma que las direcciones a las páginas creadas dinámicamente para cada fotografía puedan ser indexadas por los buscadores y accesibles más fácilmente para aquellos que busquen este tipo de recursos en la web.
Así que espero que la web os guste y que sea interesante para vosotros.
17 de diciembre de 2010
Si algo caracteriza a internet es que es libre. Cualquiera puede tener su hueco, su espacio, accesible desde todos los rincones del planeta y contar en él lo que quiera con la sola limitación de su imaginación. Desde hace un tiempo, los modos en que podemos expresar esas ideas se ha multiplicado con la aparición del contenido multimedia, ya sean vídeos, imágenes o sonidos. Pero como todos sabemos, la libertad es extraordinariamente frágil. Y por supuesto la censura es su principal enemiga. Se manifiesta con muchas caras, la mayoría de ellas no como tal, sino mucho más sutiles. Incluso en los países más libres existen formas de censura aceptadas y autocensura.
La arquitectura de internet por definición es descentralizada, pero no ocurre lo mismo con algunos servicios como el correo electrónico o la world wide web. Ésta se encuentra centralizada en servidores, generalmente de empresas privadas que comercian con este alojamiento. Si el contenido alojado es considerado «peligroso», «ilegal» o «no conveniente», el acceso a esos servidores puede ser restringido o suprimido por las autoridades de determinados países mediante procedimientos sencillos (por ejemplo un cortafuegos). Pero, ¿Qué ocurriría si en vez de usar servidores para alojar la información de nuestro sitio web, esta se almacenara en nuestras propias máquinas?
A grandes rasgos esta es la filosofía que subyace detrás del proyecto Freenet. Se trata de una iniciativa sin ánimo de lucro que ha desarrollado las herramientas necesarias para utilizar la web mediante arquitectura de pares (p2p) de forma que las conexiones se realizan de ordenador a ordenador, sin la necesidad de acceder a un host de información centralizada. Existe una clara analogía en la historia de la libre distribución de archivos MP3: El error de Napster fue crear una topología centralizada. Todas las peticiones tenían que pasar por el nodo central para poder ser servidas. Su final estaba cantado, con cerrar el servidor sería suficiente para hacer caer todo el sistema. Pero fue entonces cuando surgió eDonkey y su revolucionaria arquitectura de pares. Ya no había nodo central y (simplificando mucho) todas las peticiones pasaban directamente al ordenador destino, previa consulta de un índice (alojado, esto sí, en un servidor) de computadoras conectadas y compartiendo el archivo requerido. La gran diferencia es que ese índice podía estar alojado en cualquier servidor. De hecho hoy día clientes p2p como eMule pueden conectarse indistintamente a cientos de servidores diferentes.
Estos días pasados he estado probando Freenet y, aunque aún es un sistema lento (depende de las conexiones de los usuarios) y rudimentario (precisamente la velocidad condiciona la estética y el tipo de contenidos que pueden incluirse), es una poderosísima herramienta que deja a un lado el uso de servidores centralizados y supone un retorno a la información pura y dura. Probablemente el uso de Freenet se vaya popularizando con el tiempo y el proyecto crezca y mejore. La revolución y la expansión de los contenidos digitales es imparable y no existirá censura que lo pueda detener.
10 de diciembre de 2010
A lo largo de las últimas dos semanas, nombres como WikiLeaks, cable o Julian Assange se han escuchado y leído más allá de los medios de internet. Ya en agosto di mi opinión sobre WikiLeaks y lo que pensaban algunos más conspiranoicos que yo. La publicación de los mensajes diplomáticos, la detención de Assange por unos delitos que aparentemente nada tienen que ver con las filtraciones, el boicot de varias grandes empresas como Amazon, PayPal o MasterCard a WikiLeaks y la posterior «venganza» de los hackers de Anonymous han conseguido que vuelva a escribir sobre el tema.
Es un asunto muy complejo y lleno de matices que hay que enfocar necesariamente desde un punto de vista. En mi caso me permito citar el post de David de Ugarte en el blog de Las Indias, titulado «Del estado de alarma a WikiLeaks y por qué Assange no nos hace más libres», con el que estoy muy de acuerdo. Llama la atención que un sitio web tan subversivo y poco convencional «ceda» los documentos productos de las filtraciones a cinco medios de comunicación escrita «mainstream» de todo el mundo (The New York Times, El País, Der Spiegel, Le Monde y The Guardian), que a su vez son cabeceras de poderosos emporios mediáticos, en vez de colgarlos todos de su web, o al menos irlos distribuyendo para evitar una indigestión de información. Como bien dice De Ugarte, los medios interpretan los mensajes diplomáticos según sus intereses económicos y políticos. Vamos, que los «cocinan» de algún modo, bien sesgando o bien interpretando. De igual manera, la información vuelve a estar en manos de unos pocos medios como hace décadas. Es como si internet hubiera sido relegado en favor de volver a centralizar el conocimiento.
Sobre la figura de Assange yo me vuelvo a preguntar, como ya hice en aquel post, en el por qué de una cabeza visible en una organización virtual que opera íntegramente en internet y que lo hace con un material tan sensible. Personalizar en un solo personaje el trabajo del grupo de voluntarios de WikiLeaks es un error. En cualquier caso, la filtración de esos 250 000 documentos de la diplomacia de los Estados Unidos (aunque en la web se vayan colgado de poco en poco) se ha convertido en una pequeña revolución digital que ha removido conciencias y poniendo negro sobre blanco las manipulaciones de presión de la superpotencia sobre el resto del mundo.
30 de noviembre de 2010
Google anunció ayer el lanzamiento de la nueva versión de Google Earth, la sexta. Reconozco que últimamente suelo consultar los mapas a través de web que de su aplicación específica. La navegación sobre todo a través de Street View me gustaba bastante más. Google Earth 6, todavía en versión beta, modifica algunos aspectos de la navegación, a veces para bien y otras veces, en mi opinión, para mal. Veamos pues cuales son esas novedades y esos cambios que hacen de esta versión un avance sensible con respecto a su predecesor:
- Imágenes históricas. Esta nueva herramienta es posiblemente lo que más me gusta del nuevo Google Earth. Permite visualizar las imagenes de satélite de todos los años que estén disponibles. Por ejemplo, si sobrevolamos Madrid, veremos que nos aparece en la zona inferior de la ventana una cifra que indica un año, que es el año más antiguo del que se tienen imágenes. En este caso es 2000. Si pulsamos nos aparece una barra deslizante con todas las fechas en las que se tomaron imágenes para el área que estamos viendo.
- Nuevo Street View. Esto no sé si me gusta o no. Ahora en vez de cambiar de una imagen a otra cuando navegamos por Street View, el programa tiene en cuenta la tridimensionalidad de los edificios y otros elementos, dando una sensación de volumen y de «transición suave». También tenemos más libertad de movimiento, a costa de perder calidad de imagen y hasta de realismo. Las fotografías en la mayoría de los casos se ven demasiado distorsionadas.
- Navegación continuada entre el modo satélite y el modo Street View. Quizás a imitación del estupendo (cada vez mejor) Bing Maps, los mapas de Microsoft, Google ha incluido en Earth 6 la posibilidad de cambiar automáticamente del modo aéreo a la vista a nivel de calle cuando la altura se acerca a cero.
En conclusión, Google Earth 6 mejora la usabilidad y facilita la navegación por los mapas, haciéndolo de forma más natural pero quizás sacrificando algo de calidad de imagen. En cualquier caso un paso adelante que hay que tener en cuenta. Puede descargarse gratuitamente desde su web.