Cada vez que veo o leo una barbaridad en internet me asalta la misma reflexión: ¿Internet ha de tener límites? ¿Quién ha de establecerlos? ¿Cómo protegemos a los menores y a los más vulnerables? Desde que internet está al alcance de cualquiera, se han planteado estas y otras cuestiones que no tienen fácil solución. Yo siempre he abogado por la libertad absoluta y que cada uno sea responsable que los contenidos que genera. Pero para que esta libertad sea efectiva y a la vez se proteja de posibles abusos a los demás, es necesario articular medidas que permitan aplicar las leyes penales al ciberespacio. Esto es algo que poco a poco (muy poco a poco) se va consiguiendo. No es nada fácil aplicar una legislación pensada para el «mundo real» a un ente global y omnipresente. Aún así, existen abundantes lagunas legales ¿Qué ocurre cuando se utiliza una red pública WiFi o un cibercafé para cometer un delito? No estoy muy al tanto de si hay jurisprudencia o se han dictado sentencias al respecto.
Pero no sólo son delitos lo que nos podemos encontrar en internet. Existen aspectos de internet, que sin infringir ninguna norma, son negativos para el internauta. Sin ir más lejos, el otro día entré en una de esas webs que permiten almacenar imágenes para colocar en blogs y foros. Allí había de todo, pero me llamó especialmente la atención fotos de cadáveres desfigurados supongo que por accidentes y similares. Esta información puede ser interesante para forenses o estudiantes de medicina (imagino que las imágenes provendrían de alguna web de ese tipo, no voy a pensar en otras perversiones). Dejando todo el tema de los menores aparte (por descontado que un niño o una niña de menos de 13-15 años debe navegar siempre por internet en compañía de algún familiar mayor de edad), puede ser muy desagrable y molesto para cualquier persona encontrarse por sorpresa con alguna cosa de estas o con lo que yo llamo «pornografía intrusiva», esos banners sexualmente explícitos que aparecen en webs que nada tienen que ver con el tema, normalmente de descargas, enlaces de eMule o parecidos y que es muy sencillo acceder a ellos.
Internet es la ley de la selva. Hace falta tiempo y experiencia para separar la basura de los contenidos que merecen la pena. El anonimato hace que la red de redes sea el reflejo de una sociedad occidental que hacia afuera reprime sus deseos, perversiones y frustraciones, y que los termina volcando en la web. Las posibilidades de internet son casi infinitas y ha cambiado nuestra forma de ver el mundo y nuestra propia vida. Siempre he defendido este lado positivo frente a los agoreros sensacionalistas de determinados programas de televisión, pero también la libertad total conlleva una responsabilidad que muchas veces se obvia.
Hoy es el gran día del lanzamiento de Firefox 3, la última versión del navegador web que le hizo sombra al todopoderoso Internet Explorer. La historia de Firefox es la de la superación, el crecimiento silencioso, hasta el punto de que con la versión 2.0 se ha hecho con más de una cuarta parte del mercado. Contra viento y marea, el proyecto Phoenix, surgido en 2002 de las cenizas de un moribundo Netscape, que valientemente decidió liberar su código fuente, ha ido evolucionando y mutando de nombre (después de Phoenix fue Firebird) hasta lo que es hoy día. Quién iba a decir que Firefox sería noticia no sólo a nivel de internet, sino que diarios de papel de todo el mundo dedican hoy artículos a esta maravilla del software libre.
Pero con la aparición de una alternativa a Internet Explorer también surgió un nuevo problema para los que por entonces éramos desarrolladores web: la compatibilidad. Hasta la fecha, Internet Explorer era el navegador de referencia y el que usaban el 95% (o más) de los internautas. Con la irrupción de una alternativa, las reglas cambiaron. Comenzó el «infierno de la incompatibilidad». Explorer interpretaba las instrucciones CSS y tenía un modelo DOM «muy suyo», que variaba sensiblemente con lo que eran los estándares dictados por la W3C. Por el contrario, Firefox sí que los cumplía.
A lo largo de los últimos meses he seguido el lanzamiento de las versiones Beta y Release Candidate de Firefox 3. En entorno Mac la mejora con respecto a la versión 2 es más que notable y es evidente que la comunidad Mozilla se lo ha currado mucho y bien para que este navegador sea casi tan rápido en la carga que Safari (que es decir mucho) y bastante más ágil en la descarga de páginas web. Algo inaudito. Imaginad que en Windows, Firefox fuera más rápido que Internet Explorer. Pues algo así es lo que sucede. Además, una de las mayores pegas que le veía al navegador del zorro era la falta de sentido estético y la poca integración con los elementos visuales de Leopard. Esta nueva versión subsana en buena medida esa carencia.
El proyecto Firefox es sin lugar a dudas la más exitosa de todas las iniciativas de código abierto que se han llevado a cabo, pero no la única. Ahí tenemos aplicaciones como eMule o sistemas operativos como Ubuntu, que demuestran que el software colaborativo funciona, y no sólo funciona, sino que puede plantarle cara a cualquier aplicación cerrada de pago.
Actualización de las 20:18: Parece que todas las webs que distribuyen Firefox 3 están caídas, con lo que el exitazo de descargas está asegurado. ¿Cómo es que no habían tenido en cuenta que esto podía pasar? Se me olvidó decir que hoy se pretendía batir el récord Guiness de descargas de software en un sólo día. Como las webs no funcionen durante mucho tiempo me parece que no lo van a conseguir…
Sí, Primal Scream vuelven. Lo harán el 14 de julio con el primer sencillo de ‘Beautiful Future’ llamado ‘Can’t Go Back’. Buenísimo. Para mi gusto de lo mejor que han hecho desde los tiempos del ‘Xtrmntr’. Juzguen ustedes mismos:
La noticia sobre la anulación por parte del Tribunal Constitucional turco de la ley que permitía el uso del velo en las universidades se ha quedado ya vieja, el tema de los símbolos religiosos en los lugares públicos sigue candente en toda Europa. Bien es cierto que Turquía no puede considerarse culturalmente como Europa y que la lucha de los estamentos oficiales a favor del laicismo de la nación de Atatürk es una historia de tiras y aflojas constante, pero me sirve como percha para lanzar mis reflexiones.
Pienso que ningún poder público puede obligar a nadie a ser laico. Creo que hasta ahí todos estamos de acuerdo. Un estado democrático en el que se respeten los derechos humanos debe defender la igualdad entre sus ciudadanos sin importar, entre otras cosas, su credo religioso. Otra cosa bien distinta son los instrumentos de un Estado. Mi idea es que cualquier institución de carácter público (especialmente las Administraciones que gestionan los servicios a la ciudadanía y sobre todo aquellas que lo hacen en el campo de la educación) ha de ser escrupulosamente neutral, tanto política como religiosamente.
El caso «occidental» más polémico sobre uso del hiyab en las escuelas ocurrió en Francia, donde incluso se aprobó en 2004 una ley para prohibir su uso y el de otros símbolos religiosos en los centros educativos. En mi opinión se trata de un asunto de laicidad mal entendida y de forzar una hipócrita «igualdad de derechos». Precisamente los derechos están en poder elegir, del mismo modo que un judío debe poder entrar en un colegio con una kipá o un cristiano con un crucifijo o una medallita visible. Nunca he entendido qué hay de malo en llevarlos. El problema vendría si con esa indumentaria provocara algún perjuicio a los demás o atentara contra las leyes o la dignidad humana, algo que desde luego no creo que sea el caso. Vamos hacia una sociedad multicultural, así que cuanto antes respetemos y comprendamos los símbolos de los demás, mejor. Mientras, el papel del Estado ha de ser de neutralidad y de respeto ante todas las creencias. No podía ser de otro modo.
La Teoría M fue propuesta por el físico Edward Witten y se trata de una hipótesis muy complicada de entender y de explicar, pero lo voy a intentar. En cualquier caso os recomiendo que veáis el documental de la BBC ‘Universos Paralelos’, donde la explican bastante bien.
La Teoría M surge del propósito de unificar en una sola ley física todo el comportamiento del universo. Einstein dedicó sin éxito una parte de su vida a encontrar esa norma universal. Esta hipótesis se basa en la teoría de las supercuerdas, según la cual las partículas elementales que forman la materia y la energía no son puntuales, o para ser más exactos, no «existen» en un sólo punto, sino que se «mueven» siguiendo patrones que serían similares a las vibraciones que produce una cuerda de una guitarra. Estas vibraciones sólo serían posibles en un universo de más de cuatro dimensiones (espacio-tiempo). Por esta razón, los físicos que defienden esta teoría asumen que vivimos en un mundo con al menos seis dimensiones más, imperceptibles por ser extraordinariamente minúsculas. El problema es que no existe una sola teoría unificada de supercuerdas, sino que son cinco variantes, cinco formulaciones. La búsqueda de la teoría del todo se iba al traste.
La única manera de unificar estas cinco variantes es relacionándolas entre ellas de manera «coherente». Es aquí donde surge la Teoría M. Lo más interesante es que, si la Teoría M fuese cierta, viviríamos en un mundo con múltiples universos de muy diferentes formas y el big bang sería el resultado del «choque» de dos de estos universos. Ir más allá sería inútil, yo al menos no he conseguido entender mucho más. La Teoría M supone poner a prueba todo el conocimiento científico hasta la fecha, forzando a menudo en exceso las leyes físicas y matemáticas hasta el punto de que es necesario un nuevo lenguaje matemático para poder reflejar los complejísimos cálculos teóricos que requiere.
Mi conclusión es que no sabemos absolutamente nada de lo que hay «ahí fuera» ni lo de que ocurre a escala subatómica. Todo se vuelve extraño, tan extraño que se necesitan teorías extrañas para intentar explicarlo. Por otra parte, los científicos también son personas, y de vez en cuando les da por dar rienda suelta a sus fantasías, aportando soluciones fantasiosas. En la realidad, en el mundo tangible no sabemos nada a ese nivel. Por mucho que la inteligencia humana pueda atisbar un mundo en el que hay que redefinirlo todo, a la vez esa intuición de una nueva física asusta y fascina a partes iguales.
El documental ‘Universos Paralelos’ de la BBC:
Otro documental que he encontrado sobre la Teoría M y la teoría de cuerdas:
Ya he hablado más de una vez sobre el free cinema británico y sobre Richard Lester, su principal exponente. Lester renovó el cine musical con la excelente primera película de los Beatles ‘A Hard Day’s Night’ en 1964. Un año después, en 1965, dirigió ‘The Knack… and How to Get It’. De aquélla conserva prácticamente todo el lenguaje visual, convirtiendo la película en un estupendo conjunto de gags visuales disparatados y gamberros. El deseo y la sensación de crear un cine genuinamente joven y fresco flota a lo largo de todo el metraje.
‘The Knack… and How to Get It’ cuenta la historia de una chica de provincias (interpretada por la musa del «swinging London» Rita Tushingham) que llega a Londres. Nada más llegar se encuentra con tres jóvenes que comparten piso: el acomplejado profesor Colin (Michael Crawford), el ligón arrogante Tolen (Ray Brooks) y el artista que lo pinta todo de blanco Tom (Donal Donnelly), con los que vivirá disparatadas aventuras. Como curiosidad, hacen su primera aparición en la pantalla Charlotte Rampling, Jacqueline Bisset y Jane Birkin. El guión está basado en la obra de teatro de Ann Jellicoe.
Lester se posiciona claramente a favor de la juventud rompedora de los sesenta y analiza la que seguramente fue la postura generalizada de sus mayores. No en vano, la juventud de los sesenta supuso un avance de gigante con respecto a sus padres. Fueron tiempos de choques generacionales y Richard Lester los refleja con ironía en esta película. Aparte del valor puramente cinematográfico, la película influyó decisivamente en las generaciones posteriores. La banda norteamericana The Knack, autor de ‘My Sharona’, deben su nombre a esta obra. Y posiblemente Oasis, en el vídeo de ‘Don’t Look Back in Anger’, hace un guiño a Lester con la secuencia de las chicas haciendo cola.
Por pura casualidad he encontrado un artículo que, más allá de su propio texto, invita a la reflexión. En él, un tal Richard Lynn, profesor emérito de la Universidad del Ulster, hace unas declaraciones que por lo menos son polémicas. Lynn es conocido por haber hecho estudios según los cuales la inteligencia depende de la raza y del sexo, indicando que los europeos del norte (holandeses y alemanes) son los que poseen un mayor coeficiente intelectual medio. Al situarse en posiciones más meridionales, el coeficiente desciende. En otro estudio definió a las mujeres como menos inteligentes que los hombres.
La última de este hombre es un estudio en el que concluye que a mayor inteligencia, menor creencia en Dios. En un principio podría considerarse que esto tiene cierta lógica. Lynn, que dice haber realizado su trabajo en base a análisis de ciudadanos de 137 países, no parece tener en cuenta las inevitables influencias culturales que posiblemente distorsionen los resultados. Me refiero a que en naciones de la órbita comunista, donde el ateísmo era la «religión oficial», existirá un mayor número de ateos (con todo tipo de coeficientes intelectuales). Por contra en otros como España, Italia o América Latina, donde el catolicismo hunde profundamente sus raíces, existirá un mayor número de creyentes, independientemente de su inteligencia. Vamos, que el componente cultural creo que influye decisivamente sobre los resultados.
Otra pega que le veo a este estudio es una vieja polémica: ¿Qué es la inteligencia? ¿Se puede medir? ¿Depende la mayor o menor formación académica del individuo en los resultados de los tests?. Sea como fuere, entrar en terrenos tan pantanosos como inteligencia o pobreza, o clasificar a sus países por la «teórica» mayor o menor inteligencia de sus ciudadanos me parece muy peligrosa, además de irrelevante, porque la diferencia media en el CI entre los países «listos» y los «tontos» es de muy pocos puntos. Imaginemos que en España se hiciera lo mismo en nuestras ciudades y supiéramos cuales son las ciudades «más inteligentes». ¿Tendría algún sentido? ¿Sería un estudio válido teniendo en cuenta que posiblemente en cada nuevo ensayo podríamos obtener resultados diferentes?
rmbit está bajo una licencia de Creative Commons.
Plantilla de diseño propio en constante evolución.
Página servida en 0,062 segundos.
Gestionado con WordPress