rmbit - La bitácora personal de Ricardo Martín
La bitácora personal de Ricardo Martín
Comentando cosas desde 2004
12 de abril de 2011

La tipografía por defecto

En mi serie dedicada a las fuentes más populares, dediqué una de las entregas a la Times New Roman. Probablemente es la fuente más conocida gracias a la proliferación de la informática. Y es que la mayoría de las aplicaciones que tratan textos la utilizan como estándar por defecto. Incluso la práctica totalidad de los navegadores de internet renderizan la Times New Roman como tipo cuando no se especifica otra cosa, cuando quizás lo lógico sería usar una fuente monoespaciada. Todos siempre lo hemos dado como normal, pero ¿Cuál es la razón de esta preferencia de esta fuente sobre las demás (por ejemplo la Helvetica)?

Por desgracia, para esta pregunta no he encontrado respuesta, pero me aventuro a lanzar varias posibles razones: El uso de los tipos genéricos Times Roman o Times estaba ya muy extendido en documentos escritos en todo el mundo antes de la llegada masiva de la informática. De hecho la fuente fue ideada por el diario británico The Times para usarla en la maquetación de sus periódicos. Otros medios como The New York Times, Le Monde, La Repubblica, El País, La Vanguardia o Diario 16 la utilizaron hasta fechas recientes. Otra posible razón puede tener que ver con la legibilidad. Siempre se ha dicho que una fuente serif es más legible que una sans-serif. Y por último, aunque de esto no tengo ni idea, por un asunto legal de derechos de autor. Ya se sabe como son estas cosas entre grandes empresas.

En cualquier caso, la muchas veces denostada y mal utilizada Times New Roman me parece un gran tipo, muy versátil, bien diseñada (ampliad un documento y fijaos bien en los caracteres, son una maravilla), elegante, clásica y a la vez sobria. El problema es que esta ubicuidad ha hecho que mucha gente (con razón) haya comenzado a sustituirla por otra «menos estándar».

24 de febrero de 2011

Juegos en Basic para MSX

Puede que a las nuevas generaciones esto les suene a cuento, pero los que llevamos décadas en el mundo de la informática hemos visto ya muchas cosas y podemos contar un montón de batallitas. Por eso los más jóvenes se sorprenderán cuando les diga que hubo un tiempo en que se publicaron revistas que contenían programas en lenguaje Basic y que tecleábamos en el ordenador (a veces eran páginas y páginas de código). Si el listado era un poco largo se solían tardar varias horas o incluso varios días. El trabajo de corrección de errores también era un poquito engorroso y aprendimos a ser minuciosos en la transcripción para evitar estos fallos y también –tal vez lo más importante– los fundamentos de programación que de tanto nos han servido en la carrera.

Por eso encontrarme con el blog MSX Basic Games, mantenido por Ryback, ha sido como viajar veintitantos años atrás en el tiempo. Lo que ofrece esta web son aquellos juegos publicados sobre todo en las revistas ya clásicas MSX-Club y MSX-Extra. Todos ellos eran originales enviados por los lectores. Algunos de ellos (vale que era muy simples) no tenían nada que envidiar a algunos videojuegos comerciales que por entonces se vendían en formato cassette. Otros, en cambio, dejaban mucho que desear y suponían una pequeña desilusión, bien porque no funcionaban o porque su pésima calidad lo hacía injugable. Si entonces había que copiarlos a mano en nuestros MSX, ahora con un simple clic de ratón podemos bajarnos la imagen .cas y cargarla en el emulador.

Estoy seguro de que a muchos, como me ha pasado a mí, os traerá un montón de recuerdos de cuando érais niños. Por último dar las gracias a Konamito por su estupendo sitio web, ya que a través de él estoy descubriendo un montón de nuevos recursos en castellano sobre el MSX.

7 de febrero de 2011

Vuelve el Spectrum, ¿Volverá el MSX?

Hace 25 años, los que teníamos un MSX y comenzábamos en esto de la informática, nos cabreaba mucho el hecho de que ordenadores con peores prestaciones como el Spectrum o el Amstrad se llevaran todo el protagonismo de los medios y fueran máquinas mucho más vendidas y con más juegos, aplicaciones y revistas disponibles. Siempre nos pareció una injusticia. Sólo unos pequeños oasis en Holanda, Brasil y, por supuesto, Japón, cubrían nuestras necesidades de «alimento».

Parece que la historia se repite. Conscientes del negocio que es explotar la nostalgia tecnológica de los que ahora somos treintañeros, la gente de Ellite –antiguos desarrolladores de videojuegos– quieren resucitar el Spectrum con el espíritu, la estética y –supongo– las prestaciones originales, pero con algunas mejoras para adaptarlo a los tiempos y hacerlo atractivo a la vez que reconocible. Algo parecido ya sucedió con un Commodore 64 modernizado. Pero la cosa va para largo, en 2012 se conmemoran los 30 años del lanzamiento del conocido ordenador británico.

Lamentablemente, es complicado que ocurra algo parecido con nuestro querido MSX. Al contrario que el Spectrum, el MSX no es una marca comercial, sino un estándar, lo que complica las cosas en asuntos de marketing e imagen. Para muestra, los problemas de fabricación y distribución debido a la baja demanda hizo que la ASCII Corporation (uno de los padres del sistema) se desentendiera de su comercialización. Salió sin pena ni gloria de mano de la compañía japonesa D4 Enterprise bajo el nombre de 1Chip MSX. En 2001 se lanzó oficialmente este emulador (estéticamente un poco feo, todo hay que decirlo) que recreaba un MSX-2 con puertos USB para los teclados, lector de tarjetas de memoria en sustitución de los disquetes de 3,5 pulgadas y dos ranuras para cartuchos. Hoy día sigue siendo un producto marginal que sólo puede conseguirse en Japón. La prueba es que la web oficial del fabricante sólo está en japonés.

¿Nadie en Europa se anima a lanzar una versión atractiva con el 1Chip MSX como base? ¿Ni siquiera en Holanda o Brasil, países bastión del sistema?

15 de enero de 2011

El seguro de vida de Julian Assange

Ya no hay duda que el asunto de Wikileaks está revolucionando el panorama de las relaciones diplomáticas internacionales y cómo los ciudadanos reciben una información –aunque sea seleccionada por un medio de comunicación– que de otro modo nunca conocerían y que tienen derecho a saber. Desde que Julian Assange fuera detenido el pasado mes de diciembre, muchos tenemos en mente un nombre, casi como si fuera un código: insurance.aes256. Como indica su nombre, se trata de un seguro de vida, el de Assange. Siguiendo sus indicaciones, si algo le ocurriera al fundador de Wikileaks se proporcionaría la llave (una clave pública) que descifraría el archivo.

A ciencia cierta muy poca gente sabe lo que contiene ese documento de casi 1 GB y medio, así que todo son especulaciones. Según unos alberga unos 200 000 documentos filtrados por la diplomacia entre 2004 y 2010 y según otros trata temas concretos, como información no conocida por el gran público sobre los hechos que tuvieron lugar en la explosión de la plataforma petrolífera de BP en el golfo de México o confidenciales sobre la base norteamericana de Guantánamo y la guerra de Afganistán. Pero realmente todo podría ser un farol. Quizás la inteligencia norteamericana ya haya conseguido romper el cifrado AES de 256 bits –el más avanzado e inexpugnable del momento–… o tal vez no.

Lo interesante del archivo insurance.aes256 es que cualquiera con conexión a internet puede descargárselo libremente a través de varios métodos. Basta con buscar el nombre del fichero en cualquier buscador y seguir las instrucciones. Pero recordad que si no se libera la clave no se puede mirar su contenido. A muchos todo esto nos puede parecer digno de una películas de espías, pero es el mundo real… ¿Si no le ocurre nada a Assange se terminará publicando la clave?

17 de diciembre de 2010

¿Será Freenet la nueva internet?

Si algo caracteriza a internet es que es libre. Cualquiera puede tener su hueco, su espacio, accesible desde todos los rincones del planeta y contar en él lo que quiera con la sola limitación de su imaginación. Desde hace un tiempo, los modos en que podemos expresar esas ideas se ha multiplicado con la aparición del contenido multimedia, ya sean vídeos, imágenes o sonidos. Pero como todos sabemos, la libertad es extraordinariamente frágil. Y por supuesto la censura es su principal enemiga. Se manifiesta con muchas caras, la mayoría de ellas no como tal, sino mucho más sutiles. Incluso en los países más libres existen formas de censura aceptadas y autocensura.

La arquitectura de internet por definición es descentralizada, pero no ocurre lo mismo con algunos servicios como el correo electrónico o la world wide web. Ésta se encuentra centralizada en servidores, generalmente de empresas privadas que comercian con este alojamiento. Si el contenido alojado es considerado «peligroso», «ilegal» o «no conveniente», el acceso a esos servidores puede ser restringido o suprimido por las autoridades de determinados países mediante procedimientos sencillos (por ejemplo un cortafuegos). Pero, ¿Qué ocurriría si en vez de usar servidores para alojar la información de nuestro sitio web, esta se almacenara en nuestras propias máquinas?

A grandes rasgos esta es la filosofía que subyace detrás del proyecto Freenet. Se trata de una iniciativa sin ánimo de lucro que ha desarrollado las herramientas necesarias para utilizar la web mediante arquitectura de pares (p2p) de forma que las conexiones se realizan de ordenador a ordenador, sin la necesidad de acceder a un host de información centralizada. Existe una clara analogía en la historia de la libre distribución de archivos MP3: El error de Napster fue crear una topología centralizada. Todas las peticiones tenían que pasar por el nodo central para poder ser servidas. Su final estaba cantado, con cerrar el servidor sería suficiente para hacer caer todo el sistema. Pero fue entonces cuando surgió eDonkey y su revolucionaria arquitectura de pares. Ya no había nodo central y (simplificando mucho) todas las peticiones pasaban directamente al ordenador destino, previa consulta de un índice (alojado, esto sí, en un servidor) de computadoras conectadas y compartiendo el archivo requerido. La gran diferencia es que ese índice podía estar alojado en cualquier servidor. De hecho hoy día clientes p2p como eMule pueden conectarse indistintamente a cientos de servidores diferentes.

Estos días pasados he estado probando Freenet y, aunque aún es un sistema lento (depende de las conexiones de los usuarios) y rudimentario (precisamente la velocidad condiciona la estética y el tipo de contenidos que pueden incluirse), es una poderosísima herramienta que deja a un lado el uso de servidores centralizados y supone un retorno a la información pura y dura. Probablemente el uso de Freenet se vaya popularizando con el tiempo y el proyecto crezca y mejore. La revolución y la expansión de los contenidos digitales es imparable y no existirá censura que lo pueda detener.

12 de diciembre de 2010

‘La Red Social’, pijos contra genios

‘La Red Social’ es sin duda una de las películas del año en el «mundo real», es decir, dentro del cine comercial norteamericano. Ciertamente no hace falta mucho para conseguirlo. Había algo en esta producción dirigida por David Fincher (‘Seven’, ‘Zodiac’) este mismo año que me atraía más allá del argumento y que no sabría decir qué es. La historia de ‘La Red Social’ es la narración de un juicio, el de ConnectU contra Facebook en 2008 por un asunto de patentes. En forma de flashbacks, a veces un poco confusos, se va cosiendo el argumento, contado de una manera excesivamente frenética.

Personalmente, creo que ‘La Red Social’ es una película que engancha a pesar de que su insoportable fachada de «más de lo mismo». La mayoría de las secuencias tienen apariencia falsas y los personajes y sus diálogos efectistas y repletos de tópicos y ocurrencias me ponen enfermo. Además probablemente disten mucho de la realidad. Básicamente la historia de universitarios de Harvard se divide entre los niñatos hijos de papá y los cerebritos adheridos a sus ordenadores. En el papel de los primeros, los gemelos Winklevoss y su idea de Harvard Connect (posteriormente ConnectU), y en del segundo Mark Zuckerberg» con su Facebook.

Quizás el planteamiento, el enfoque, sea lo más acertado de la película. El rancio universo de las «houses» de Harvard, los clubes exclusivos y toda esa parafernalia que hemos visto muchas veces en el cine británico y norteamericano. A lo largo de todo el film, Fincher muestra a Zuckerberg casi como un marciano en un mundo que no es el suyo, obligado por unas convenciones sociales que a él le parecen estúpidas. Pero también como una persona sabia e inteligente que maneja como él solo las dosis necesarias de cinismo e ironía como un escudo contra los ataques del mundo exterior.

En definitiva, una película curiosa con un argumento que se sale de lo normal y que entretendrá a aquellos que les interese este mundo a caballo entre la informática y los negocios. De hecho no es fácil escuchar en la gran pantalla palabras como Perl, PHP, Apache o SSL, ni ver el gestor de ventanas KDE o el gestor de blogs LiveJournal

30 de noviembre de 2010

Google Earth 6, la evolución de los mapas

Google anunció ayer el lanzamiento de la nueva versión de Google Earth, la sexta. Reconozco que últimamente suelo consultar los mapas a través de web que de su aplicación específica. La navegación sobre todo a través de Street View me gustaba bastante más. Google Earth 6, todavía en versión beta, modifica algunos aspectos de la navegación, a veces para bien y otras veces, en mi opinión, para mal. Veamos pues cuales son esas novedades y esos cambios que hacen de esta versión un avance sensible con respecto a su predecesor:

  • Imágenes históricas. Esta nueva herramienta es posiblemente lo que más me gusta del nuevo Google Earth. Permite visualizar las imagenes de satélite de todos los años que estén disponibles. Por ejemplo, si sobrevolamos Madrid, veremos que nos aparece en la zona inferior de la ventana una cifra que indica un año, que es el año más antiguo del que se tienen imágenes. En este caso es 2000. Si pulsamos nos aparece una barra deslizante con todas las fechas en las que se tomaron imágenes para el área que estamos viendo.
  • Nuevo Street View. Esto no sé si me gusta o no. Ahora en vez de cambiar de una imagen a otra cuando navegamos por Street View, el programa tiene en cuenta la tridimensionalidad de los edificios y otros elementos, dando una sensación de volumen y de «transición suave». También tenemos más libertad de movimiento, a costa de perder calidad de imagen y hasta de realismo. Las fotografías en la mayoría de los casos se ven demasiado distorsionadas.
  • Navegación continuada entre el modo satélite y el modo Street View. Quizás a imitación del estupendo (cada vez mejor) Bing Maps, los mapas de Microsoft, Google ha incluido en Earth 6 la posibilidad de cambiar automáticamente del modo aéreo a la vista a nivel de calle cuando la altura se acerca a cero.

En conclusión, Google Earth 6 mejora la usabilidad y facilita la navegación por los mapas, haciéndolo de forma más natural pero quizás sacrificando algo de calidad de imagen. En cualquier caso un paso adelante que hay que tener en cuenta. Puede descargarse gratuitamente desde su web.



rmbit está bajo una licencia de Creative Commons.
Plantilla de diseño propio en constante evolución.
Página servida en 0,044 segundos.
Gestionado con WordPress