rmbit - La bitácora personal de Ricardo Martín
La bitácora personal de Ricardo Martín
Comentando cosas desde 2004
13 de junio de 2012

Probando Final Cut Pro X

Desde que empecé con esto del montaje de vídeo digital, allá por 1998, siempre había sido fiel a Adobe Premiere, primero a esa mítica versión 4.2, y posteriormente a casi todas las que después fueron lanzándose. A pesar de todo no puede decirse que sea un experto en esta estupenda aplicación –mi uso ha sido esporádico hasta que no he tenido primero la EOS 550D y luego la 60D–, pero si conozco bastantes de sus entresijos así como sus potencialidades y sus defectos.

Pero esto no significa que me cierre a buscar nuevas alternativas, mucho más si son tan tentadoras como Final Cut Pro X. Hasta hace poco, decir Final Cut Pro era decir profesionalidad, complejidad, miles de parámetros que controlar, etc. Por eso me echaba un poco para atrás a la hora de ponerme con él en serio. La publicación de esta última versión (la X) ha cambiado mi opinión y, de paso, se ha llevado muchas críticas de aquellos que usaban el FCP de la «vieja escuela» acusándolo de quitar muchas de las prestaciones que ellos utilizaban y simplificarlo demasiado.

Últimamente, el Premiere Pro CS5.5 me estaba dando muchos problemas. Es demasiado lento a la hora de, por ejemplo, enlazarlo con After Effects. Cuando montaba un vídeo con más clips de la cuenta se ralentizaba intolerablemente. Muchas veces era más el tiempo de espera que el de montaje propiamente dicho. Otro grave problema era la inestabilidad de esta combinación. Más de una vez me he quedado con la cara de tonto viendo como uno u otro se me cerraba sin más explicaciones dando al traste muchas veces con parte del trabajo.

Quizás sea por eso que mi primer contacto con Final Cut Pro X (en mi caso es la versión 10.0.4) no ha podido ser más positivo. A primera vista, su agradable y cómodo interfaz recuerda mucho a iMovie, con el que he trabajado hace tiempo. Evidentemente por detrás la potencia y la versatilidad que nos proporciona es muchísimo mayor pero sin perder la usabilidad de iMovie. En cuanto a agilidad de funcionamiento está a años luz del programa de Adobe. El uso de tecnologías como OpenCL o Grand Central Dispatch se notan y mucho. El procesamiento en segundo plano (por ejemplo cuando aplicamos algún efecto a un clip) apenas se nota en el rendimiento de la aplicación. Para colmo, cuenta con un sistema de estabilización de secuencias aparentemente bastante más perfeccionado que el de After Effects y otro que permite corregir el «efecto gelatina» o rolling shutter típico de los sensores CMOS.

Pero por supuesto Final Cut Pro X también tiene alguna contra. Una en concreto. Si no se quiere profundizar en determinadas facetas como la exportación, las opciones son excesivamente simples, y si se profundiza son demasiado complicadas. Todavía estoy peleándome con Compressor, la aplicación de Apple para la codificación de vídeos. Al contrario que FCPX no es nada intuitiva, aunque todo es cuestión de cogerle el punto y saber controlar los parámetros de exportación que nos interesa modificar.

En definitiva, Final Cut Pro X es una aplicación que parece diseñada específicamente para gente como yo, que no somos profesionales, pero que queremos obtener resultados de calidad con algo más que un simple editor de vídeo como iMovie. Un gran programa.

27 de marzo de 2012

¿Es posible un nuevo MSX?

El año pasado se presentó una versión renovada del mítico Commodore 64. Lanzado originalmente en los ochenta, la nueva versión –denominada 64x– es estéticamente clavada al de entonces. La única diferencia está en la conectividad y, claro está, en el interior. En este sentido nada que objetar. Más bien, envidia. Todo hardware de última generación y altas prestaciones. La cuestión que me pregunté nada más verlo es ¿Qué sistema operativo llevará? Evidentemente Windows no, ya que lo convertiría en un PC normal y corriente. Buscando un poco descubrí que el software que regía al nuevo Commodore 64x era el OS Vision. En realidad es una modificación de una distribución linux llamada Mint.

Commodore OS Vision, sin ánimo de ofender, me parece un sistema operativo estéticamente no muy bonito, demasiado recargado, con colores estridentes y una apariencia demasiado… espacial. Los efectos visuales son demasiado similares a los estándar de los entornos de ventanas linux (cierre de ventanas con el efecto fuego, efecto «ventanas elásticas» al moverlas, etc), la tipografía y los colores utilizados y ese dock calcado al Mac OS X no le hacen mucha justicia. No hubiera costado mucho hacer algo bonito y discreto que no tiene por qué no ser espectacular. Algo que quizás fuera más reconocible por los usuarios del antiguo Commodore.

Al hilo de este asunto he pensado en cómo sería un hipotético nuevo MSX ¿MSX3? adaptado a los tiempos como bien ha hecho la gente de Commodore. Uno de los inconvenientes (¿o quizás ventaja?) es que el MSX es un estándar y no un fabricante. Debería existir una compañía que lidere esta renovación. Yo he pensado desde el primer momento en Sony, que fue quien lideró en su momento junto con Philips este sistema. Su entorno de ventanas HiBrid nos maravilló allá por 1986 e hizo que aprendiéramos a diseñar hojas de cálculo y bases de datos. Ya por entonces aquel sistema era muy similar al que llevaban los primeros Macintosh de Apple. Hoy, el nuevo HiBrid tal vez pudiera estar basado en alguna distribución de linux pero de manera mucho menos evidente que en el OS Vision de Commodore. Tampoco estaría mal que contara con una ranura para poder insertar nuestros viejos cartuchos de videojuegos. Un guiño a la nostalgia y una reivindicación de sus orígenes.

Pero evidentemente todo esto es divagar por divagar, porque veo complicado que las grandes compañías que ayudaron a alumbrar el MSX quieran recuperarlo hoy comercialmente, aunque pienso que los que fuimos niños en los ochenta y tuvimos uno hoy día casi seguro que lo compraríamos. Soñar es gratis…

16 de marzo de 2012

El MSX que se fabricó en Cáceres

El otro día leí en el blog de Konamito la noticia de que se había puesto a subasta un Dragon MSX. Esto no sería noticia si no fuera porque el precio de salida eran 200.000 euros (rebajado después a 50.000) y el precio de compra directa de 2.500.000 euros (luego 250.000). La razón de tantos ceros hay que buscarla en su rareza. De este modelo de ordenador MSX sólo se conoce la existencia probada de dos (según la Wikipedia), aunque se supone que en su día, en 1985, se construyeron 500 unidades.

Otra de sus peculiaridades es que sería el primer ordenador del estándar MSX construido en España. A pesar de que la compañía Dragon es británica (galesa para más señas), su fabricación se llevó (teóricamente) por la empresa Eurohard en la localidad cacereña de Casar de Cáceres, donde sí se produjeron otros modelos de Dragon no MSX como el 64 o el 200. No se sabe si realmente comenzó la producción en serie o si todo se quedó en algunos prototipos de pruebas. Probablemente esta última opción sea la más acertada, dado que el número de unidades que han salido a la luz ha sido muy limitado.

La única unidad que ha sido fotografiada es el llamado «número 37» aludiendo a su número de serie de fabricación. Según cuenta la leyenda fue conseguido a precio de saldo en un mercadillo de Barcelona por un aficionado llamado Tromax. Siguendo con las leyendas, se dice que muchos de los Dragon MSX que finalmente fueron fabricados pero no vendidos fueron enterrados en el vertedero de la localidad de Alcuéscar (Cáceres), al más puro estilo de los cartuchos del videojuego ‘E.T.’. ¿Y si realmente siguen allí?

2 de marzo de 2012

¿Camera Raw o Digital Photo Professional?

Desde que tengo la 60D (y antes con la 550D) siempre he procesado mis fotografías RAW con Adobe Camera Raw sin que existiese una razón clara para esta elección. El otro día dediqué un tiempo a probar el software que viene con las réflex Canon después de leer algunas opiniones al respecto. Parece ser que los archivos RAW están codificados (o cifrados) con unas claves que no son públicas, sino propiedad del fabricante, en este caso Canon. Adobe consigue «saltarse» este cifrado mediante complejos algoritmos de aproximación creados a través de ingeniería inversa, pero nunca con la «auténtica».

La filosofía a la hora de trabajar con el DPP es muy diferente a la de Camera Raw. Cuesta un poco hacerse a la idea de que, por ejemplo, la «receta» o ajustes personalizados para revelar cada RAW quedan incrustados en el propio archivos, al contrario que el XMP que genera el software de Adobe. Por otro lado, el DPP cuenta con un potente sistema de clasificación de fotografías, que además es bastante práctico. Por último decir que, evidentemente, el software de Canon viene gratuitamente incluido en un CD cuando compramos nuestras cámaras, por el contrario si queremos ser «legales», tenemos que comprar al menos Adobe Photoshop, ya que Camera Raw es un plugin que necesita de aquel para funcionar.

Pero al final lo que realmente importa son los resultados. Y lo cierto es que DPP me ha sorprendido con los resultados. He hecho una prueba procesando una misma imagen con ambas aplicaciones. DPP ofrece mucho menos ruido y unos tonos más alegres. Camera Raw genera grano incluso a ISO bajo y los tonos son más apagados. En cuanto a la nitidez y la corrección de objetivo, ambos cuentas con mecanismos para conseguir buenos resultados. Tal vez si hablamos de nitidez, el DPP gana por cantidad de parámetros que podemos controlar, aunque a la hora de corregir los errores de nuestros objetivos hay que tener en cuenta que DPP sólo lo hará con los objetivos de la casa, dejando de un lado el resto de marcas.

Os dejo un ejemplo de recorte de fotografía al 100% procesada con los parámetros estándar. La de la izquierda está obtenida con Adobe Camera Raw y la de la derecha con Digital Photo Professional. Como véis, el cielo en la primera está más «sucio» y los tonos son, en general, más oscuros. El ruido también es notable en la primera.

18 de mayo de 2011

Chromebook, ¿Un fracaso de Google?

Hace unos días Google anunciaba el lanzamiento de los portátiles Chromebook, asociado a su sistema operativo Chrome. Con esto la compañía pretende revolucionar el mundo de la informática ofreciendo ordenadores ligeros, sencillos y, a través de Chrome, centrarse en la web. Podría considerarse al Chromebook como un netbook en el sentido estricto de la palabra. El sistema operativo de Google está pensado para que las tareas, las aplicaciones y los documentos se guarden y ejecuten desde la red. Una propuesta como mínimo arriesgada.

El primer modelo presentado de Chromebook es el fabricado por Samsung. Cuenta con una pantalla de 12,1 pulgadas, tarjeta gráfica discretita, 2 Gb de RAM no ampliable, ya que va integrada en placa, procesador Intel Atom de 1,66 GHz. En cuanto a la memoria secundaria, se ha optado por un disco duro SSD de tan sólo 16 Gb. En cuanto al coste, parece bastante ajustado. El modelo con 3G y WiFi costará unos 350 euros y el que sólo lleva WiFi se queda en 300 euros. Acer también tiene listo ya su modelo con características muy similares.

Creo que el Chromebook está indiscutiblemente condenado a fracasar. ¿Por qué? El cliente al que está dirigido el ordenador está muy solapado con el de las tabletas, o mejor dicho, el iPad. Por un poco más tenemos el diseño, la variedad de aplicaciones y la comodidad de un iPad. También porque creo que un sistema operativo basado en red es como mínimo algo arriesgado, ya que el ordenador puede quedar inoperativo cuando la red 3G o WiFi falla o no hay cobertura. Claro, todo esto a falta de ver cómo es la versión final de Chrome y cómo funciona en equipos de gama tan baja. Los tendremos este verano…

26 de abril de 2011

VPNs para blindarnos en la red

Ayer leí un interesante artículo en la web Error500. Trataba sobre el uso de una VPN (Virtual Private Network, o sea una Red Privada Virtual) como alternativa a los proxys para encapsular (y en definitiva «blindar») nuestros datos de tráfico mientras utilizamos internet. Desde hace unos años, en Europa las operadoras que nos ofrecen el servicio de internet tienen la obligación de guardar todos los datos de la conexión entre seis meses y dos años dependiendo del país. Aunque en principio esto no supone ningún problema real, puede llegar a violar la intimidad y los derechos fundamentales del internauta si se usan mal.

Con la llegada de leyes restrictivas que vetan o persiguen las descargas libres de material cultural, una VPN evitaría la detección del usuario y, por tanto, el hipotético bloqueo a webs de descargas de otros países sería imposible. Según se comenta acertadamente en el post de Error500, existen muchos servicios locales en internet a los que no podemos acceder por no pertenecer al país en cuestión (el servicio de vídeos o televisión a la carta de la BBC, o Netflix por poner dos ejemplos). Una VPN puede configurarse para simular una ubicación ficticia según nuestra conveniencia.

No hay duda de que en el futuro va a ser uno de los servicios más demandados por los internautas y un posible gran negocio (atención emprendedores cibernéticos). De momento la mayoría de las empresas que ofrecen VPNs son norteamericanas. Por algo menos de 30 euros al año tendremos nuestra red privada virtual. En un año, si finalmente se aplica como tal la llamada «ley Sinde», oiremos hablar mucho de estos temas. Y si no tiempo al tiempo.

12 de abril de 2011

La tipografía por defecto

En mi serie dedicada a las fuentes más populares, dediqué una de las entregas a la Times New Roman. Probablemente es la fuente más conocida gracias a la proliferación de la informática. Y es que la mayoría de las aplicaciones que tratan textos la utilizan como estándar por defecto. Incluso la práctica totalidad de los navegadores de internet renderizan la Times New Roman como tipo cuando no se especifica otra cosa, cuando quizás lo lógico sería usar una fuente monoespaciada. Todos siempre lo hemos dado como normal, pero ¿Cuál es la razón de esta preferencia de esta fuente sobre las demás (por ejemplo la Helvetica)?

Por desgracia, para esta pregunta no he encontrado respuesta, pero me aventuro a lanzar varias posibles razones: El uso de los tipos genéricos Times Roman o Times estaba ya muy extendido en documentos escritos en todo el mundo antes de la llegada masiva de la informática. De hecho la fuente fue ideada por el diario británico The Times para usarla en la maquetación de sus periódicos. Otros medios como The New York Times, Le Monde, La Repubblica, El País, La Vanguardia o Diario 16 la utilizaron hasta fechas recientes. Otra posible razón puede tener que ver con la legibilidad. Siempre se ha dicho que una fuente serif es más legible que una sans-serif. Y por último, aunque de esto no tengo ni idea, por un asunto legal de derechos de autor. Ya se sabe como son estas cosas entre grandes empresas.

En cualquier caso, la muchas veces denostada y mal utilizada Times New Roman me parece un gran tipo, muy versátil, bien diseñada (ampliad un documento y fijaos bien en los caracteres, son una maravilla), elegante, clásica y a la vez sobria. El problema es que esta ubicuidad ha hecho que mucha gente (con razón) haya comenzado a sustituirla por otra «menos estándar».



rmbit está bajo una licencia de Creative Commons.
Plantilla de diseño propio en constante evolución.
Página servida en 0,047 segundos.
Gestionado con WordPress