Archivo de la categoría: Historia

Artículos que se refieren a hechos históricos dignos de consignar.

La red es el computador y no necesitas más

Desde hace un tiempo largo he estado leyendo y escribiendo acerca de algo que en los últimos meses está comenzando a ocurrir.
Se trata de que para desarrollar aplicaciones computacionales necesitamos dos elementos básicos: hardware y software. Con la llegada de Internet, a este par se agregó esa red.
Con el paso del tiempo, al intentar que las aplicaciones fueran más rápidas y aceptaran más desafíos (más usuarios, más datos, etc.) se descubrió la necesidad de que mayor potencia para el manejo de datos, lo que se resolvió mediante grupos de máquinas que resolvieran la tarea. Con ello apareció el germen de lo que vemos hoy: granjas de computadores que permitían montar aplicaciones sobre ellas y de esa manera, facilitar la tarea a quienes no podían contar con esos dispositivos por temas de costos u otros similares.
Pero, y acá viene lo interesante, desde hace algunos meses ese tipo de infraestructura se ha comenzado a arrendar para que cualquiera pudiera emplear dicha potencia en sus proyectos.
Con esto no tardaron en aparecer voces para indicar que en el mundo ya sólo se necesitan unos pocos computadores para hacer caminar aplicaciones complejas; entre ellos, los de Google, Amazon, Sun, Akamai y algunos más. Incluso mañana hay un seminario vía web en el que Nick Carr presenta el tema de su libro “The Big Switch” referido a este tema, que pone a Google como el ejemplo de hasta dónde se puede llegar a través de su “cloud computing”.
El tema central es que hoy no se necesitan computadores personales enormes para procesar datos, sino que sólo máquinas que tengan un browser para acceder a Internet, ya que a través de la red se accede a todo y a todos. Claramente, muchas preguntas nacerán de este nuevo estado de las cosas, por temas de privacidad, autonomía, propiedad, etc.
Lo interesante es que vivimos en esta época y podremos ver cómo y hacia dónde evoluciona. Incluso ya hay quienes lo ven con algo de preocupación, como el propio Carr lo dijo a Wired ante la pregunta de si estas máquinas gigantes, hiperconectadas, no le recordaban a HAL, la computadora que se salió de control en la la película 2001, Odisea del Espacio. El responde:

Lo que más asusta de la visión de Stanley Kubrick no era que los computadores comenzaran a comportarse como humanos, sino que las personas comenzaran a actuar como computadores. Estamos comenzando a procesar información como si fuéramos nodos; todo está referido a la velocidad para ubicar y usar los datos. Estamos transfiriendo nuestra inteligencia a la máquina, y la máquina nos está transfiriendo su manera de pensar”.

¿Será hora de preocuparse?

¿Qué puede aprender la web de 500 años de tipografía?

La imagen muestra a impresores trabajando hacia el fin de la Edad Media
La imagen muestra a impresores trabajando hacia el fin de la Edad Media.

La aparición de nuevas pantallas y mejores herramientas para diseñar los sitios web hacen que muchos profesionales se enfrenten a problemas que parecen nuevos, pero que en realidad ya han sido resueltos decenas de años antes.

La reflexión anterior llega debido a una pregunta que no es menor ni poco frecuente: ¿Cuál debe ser el ancho del sitio web? ¿800 x 600 pixeles o más grande? ¿Debe ser diseño fijo o líquido?

La respuesta, invariablemente, es: depende de los usuarios del sitio. Hay que conocerlos y saber desde qué tipo de dispositivos están accediendo al sitio web y para ello es vital conocer lo que va almacenando el “log” del servidor. De esa manera, si la mayoría usa pantallas nuevas, de las que despliegan sin problemas 1.024 pixeles de ancho, es posible considerar ampliar el ancho del sitio.

No obstante, de tanto responder de la misma manera a quienes hacían la pregunta, comencé a pensar de nuevo en la respuesta y, por supuesto, a investigar. Sin saber a dónde iba a llegar, me fui primero a la historia, tratando de encontrar una salida razonable a la interrogante.

El Maestro Amster

Uno de los hallazgos más interesantes en este trabajo fue el libro del maestro Mauricio Amster, titulado “Técnica Grafica, Evolución, procedimientos y aplicaciones” (de cuya tapa tomé el grabado que ilustra esta crónica). Escrito en el año 1954, recoge toda la enseñanza de un tipógrafo y artista gráfico que llegó a Chile en el año 1939, huyendo de la Guerra Civil Española, a bordo del Winnipeg. Recomendado por Pablo Neruda, comenzó a trabajar al día siguiente de su llegada, como recoge la interesante biografía escrita por dos profesores de la UC.

De ese libro, que es de cabecera para quienes se interesan por la tipografía, se destaca la siguiente frase: «Las letras sirven para formar palabras que, arregladas en frases u oraciones, deben transmitir un pensamiento. Para cumplir esta función han de ser legibles…».

Y a eso se agrega otra reflexión que viene de perillas para el tema de mi preocupación sobre cómo diagramar, teniendo en mente la adecuada legibilidad de lo que se está escribiendo:

«Una línea larga se hace poco legible en su conjunto cuando su separación de la próxima no es suficiente. El ojo, al llegar al final, ha perdido contacto con el comienzo, y cuando vuelve a la izquierda, se confunde durante un instante buscando la continuación. Tal experiencia es enojosa, nos distrae y resulta en la deficiente legibilidad de un texto. Para obviarla se recurre a la interlínea. Un espacio blanco entre las líneas ayuda a encontrar la línea nueva. A mayor interlínea, dentro de límites razonables, mejor legibilidad y también una página más bella.»

La lectura atenta deja sobre la mesa los elementos clave para trabajar en el concepto de la legibilidad: buena elección de la tipografía, del interlineado y del largo de la línea escrita.

Cómo definir el despliegue del contenido

La línea de investigación abierta con estos elementos me llevó a descubrir, con un poco de vergüenza por no haber atendido antes a esos importantes temas, a las investigaciones que se han realizado en los últimos diez años acerca del uso de la tipografía y la diagramación de las páginas de lectura en el web.

Dichos temas son los siguientes:

– Tipo de letras: sobre las letras hay bastantes investigaciones, comenzando por aquellas que llevaron al desarrollo de tipografías especiales para pantalla (Verdana, Trebuchet y Georgia, por nombrar algunas).

Ralph Wilson en un artículo sobre el tema plantea que en sus encuestas descubrió que los usuarios “claramente prefieren letras sans-serif a las que tienen serif, para el caso del texto plano”.

[ El origen del serif: http://re-type.com/notaweblog/?p=56 ]

[ Tipos de letra: http://tpgbuenosaires.tipografica.com/workshops/apuntes/tipografia_para_pantalla.html ]

Esta idea es apoyada por otros autores que ofrecen explicaciones más técnicas derivadas de la forma que tienen las tipografías. Es el caso de Tomás García Ferrari y Carolina Short, profesores de la Universidad de Buenos Aires, quienes plantean que “las fuentes para pantalla tienen en común algunas características como formas más abiertas, ojos más grandes, letras más anchas, mayor altura de x e interletra más generosa. Encajan perfectamente en la grilla de pixeles sin distorsionarse”.

– Una o más columnas: la preferencia siempre será que el texto se muestre en una sola columna. Nielsen apoya esta elección, indicando que “los contenidos importantes se deben poner en una columna principal única, de tal manera que los usuarios no tengan que revisar visualmente la página y elegir elementos en un diseño de dos dimensiones; esto también ayuda a quienes tienen problemas de visión y a los usuarios de aparatos portátiles (como los nuevos teléfonos inteligentes) que tienen un campo de visión estrecho”.

Un hallazgo similar hizo el estudio Eyetrack III del Poynter Institute, al indicar que “cerca de tres cuartos o 72 por ciento del texto de la noticia presentada en el formato de una columna fue leído. Esto fue notablemente más alto que el 56% del texto leído cuando fue presentado en un formato de tres columnas”.

-Interlineado del texto: una investigación de campo realizada por profesores de la Wichita University en Estados Unidos, muestra que el uso de espacio blanco “promedio” entre párrafos “produce mayores niveles de satisfacción y mayor preferencia que los textos muy densos o aquellos que usan mucho espacio entre ellos”.

– Márgenes del texto: otra investigación de los mismos autores anteriores, demostró además que la legibilidad de un texto aumenta cuando hay espacios adecuados en los márgenes de las líneas, respecto de si éstas están ajustadas a los bordes de la página. Su trabajo señala que si bien con márgenes amplios la lectura es más lenta, la comprensión aumenta.

El ancho de la columna

Con todo lo revisado en los párrafos anteriores, queda entonces por revisar la última parte de este trabajo, que es responder la pregunta que da origen a este artículo: ¿Cuál debe ser el ancho del sitio web?

Sobre el tema debemos volver a plantear que si bien el ancho puede ser el que se desee en términos de diseño, pero, lo que no podrá variar será el ancho máximo de los textos que incluya.

En ese sentido, el trabajo práctico realizado por los profesores García Ferrari y Short con usuarios con los cuales probaron velocidad de lectura y comprensión señala que no hay una única respuesta aunque hay cierta claridad en el sentido que un ancho de columna en torno 80 – 100 caracteres por línea es el más adecuado en términos de rapidez de lectura. No obstante, la comprensión no es la mejor a este tamaño.

Sin embargo, ellos introducen el concepto subjetivo de cuál es el mejor para los usuarios, en términos de la mejor diagramación que presenta cada caso y en ese sentido, sí ganan los a 80 – 100 caracteres por línea.

Una conclusión subjetiva similar es la que plantea Dawn Shaikh en su estudio del tema, al señalar que “los usuarios indican que leyendo párrafos de 95 caracteres por línea tenían la sensación de obtener más información de una página de manera más rápida”, si se le comparaba con párrafos más angostos. Y eso mismo fue refrendado en la medición hecha a quienes leían.

Como conclusión, este autor indica que “más allá del hecho que no hubo diferencias en mediciones de satisfacción, un largo de línea que permita una lectura más rápida podría impactar en la experiencia general de los usuarios”.

Finalmente se debe volver al principio –es decir, los maestros tipógrafos como Amster- para nuevamente insistir en que “en la composición de texto continuo habrá de prestarse especial atención en lo referente a la longitud de la línea a que la medida de esta no cause fatiga en el lector y que no le presente dificultades para posicionarse en el inicio de la siguiente línea”, como se indica en el excelente sitio de “Unos tipos duros”.

Lo mismo es apoyado por Juan Carlos García al indicar que “aunque los estudios empíricos no son unánimes al respecto, es preferible usar renglones de tamaño medio (60-80 cpl) antes que los de tamaño largo o corto. Además, éstos son los preferidos de los usuarios”.

Palabras al cierre

Finalmente debemos decir que desde la experiencia ganada en estudios y en la teoría, se denota que el ancho máximo del texto en pantalla deberá ir desde 60 cpl a 100 cpl. Menos que esa medida causará molestia y distracción en el usuario y más, atentará contra la legibilidad de lo escrito. Por lo mismo, aunque la diagramación ocupe el ancho total de la ventana o pantalla, el texto deberá tener límites concretos en su ancho y no “estirarse” junto con el sitio.

Y hasta aquí llega el recorrido por este tema, que partió desde la historia y terminó, en ella misma. Como quien olvida los errores del pasado corre el riesgo de repetirlos, lo mejor es tomar la medida de trabajar con tamaño de línea adecuados para la lectura de las personas, más que adecuados o dirigidos exclusivamente por cómo se va a ver la página que se construye.

Un nuevo Papa, y un ejemplo de actualización de contenidos

Cuando hace un año se produjo el cambio de mando en Ciudad del Vaticano debido a la muerte del Papa Juan Pablo II, los ojos de todo el mundo se posaron en esa pequeña ciudad de la península itálica.

Su sitio web (www.vatican.va) fue objeto de la misma revisión y permitió tener un ejemplo en tiempo real, de cómo administrar una situación en que el cambio de los contenidos es muy relevante.

El escudo vacío muestra que en El Vaticano ya no hay un Pontífice: la sede está vacante
El escudo vacío muestra que en El Vaticano ya no hay un Pontífice: la sede está vacante.

Así las cosas, el 2 de abril de 2005 cuando el Papa muere, el sitio web recibe su primer cambio y desaparece de la portada, donde habitualmente se muestra, el escudo del Pontífice regente y en su lugar se muestra el escudo de la “sede vacante”, el que permanecerá durante el tiempo que lleve la elección de su sucesor (ver imagen).

La información que se entregaba era mínima, pero permitía hacerse a la idea del gran cambio que se estaba enfrentando en la máxima jefatura de la Iglesia Católica en el mundo. Una situación interesante era que esta nueva portada, ocultaba la tradicional, pero no la suprimía.

Al hacer clic sobre ella, se accedía a la portada “normal” del sitio en la que aparecía la foto del papa recién fallecido y en la zona superior se enfatizaba que la sede estaba vacante (ver imagen).

El escudo vacío en la zona superior muestra la sede está vacante; abajo, junto a la foto de Juan Pablo II, aparece la fecha de nacimiento y fallecimiento
El escudo vacío en la zona superior muestra la sede está vacante; abajo, junto a la foto de Juan Pablo II, aparece la fecha de nacimiento y fallecimiento.

El siguiente cambio del sitio vino el día 19 de abril, cuando tras dos jornadas de reuniones, los 115 cardenales participantes del cónclave decidieron elegir al cardenal alemán Joseph Ratzinger, de 78 años de edad, como el pontífice 265 de la Iglesia Católica. Su nombre: Benedicto XVI.

En el sitio web, apenas minutos después de que saliera humo blanco por la chimenea de la Capilla Sextina, ya se notó el cambio, anunciando lo principal “Habemvs Papam” y en la línea siguiente, su nombre “Benedictvm XVI”. Ambas frases en latín, el idioma oficial de la Iglesia (ver imagen).

La portada del sitio web hace el anuncio oficial de la elección del nuevo Pontífice
La portada del sitio web hace el anuncio oficial de la elección del nuevo Pontífice.

El cambio siguiente vino cuatro horas más tarde, cuando ya el sitio estaba reorganizado y se podía ver las primeras fotos del Pontífice, saludando a la multitud congregada en San Pedro.

La portada del sitio web con las fotos mostrando al nuevo Papa, saludando a los fieles congregados, más una foto de la Plaza San Pedro atiborrada de católicos
La portada del sitio web con las fotos mostrando al nuevo Papa, saludando a los fieles congregados, más una foto de la Plaza San Pedro atiborrada de católicos.

Lo que hay que aprender

Una vez que se ha pasado por la experiencia de actualizar un sitio web y de ver la respuesta que ofrecen los usuarios frente a esta actividad, le queda clara a todos los participantes la necesidad de hacerlo.

En el caso del ejemplo descrito, su importancia mundial llevaba al imperativo de hacerlo, lo que, por supuesto, no siempre ocurre en sitios de importancia menor.

No obstante, es claro que los encargados de sitios web deben recalcar al interior de sus propias organizaciones la necesidad de estar actualizando los contenidos que ofrecen ya que de lo contrario la experiencia que tendrán los usuarios y la credibilidad que tendrá el sitio, sufrirán una grave caída.

¿Por dónde partir?

Algunos consejos útiles:

  • Si existe la sección de Noticias o Novedades, que al menos se agregue una a la semana; si no es así, habría que reconsiderar la existencia de esa sección.
  • Si existe la sección “Quienes Somos”, que haya nueva información por cada año, para que no quede la sensación de que no ha pasado nada en la empresa por mucho tiempo;
  • Si hay estadísticas o Listas de Precios, actualizarlas frecuentemente e incluir la fecha correspondiente, para que el usuario tenga una idea aproximada de lo actualizados que están los datos que allí se ofrecen.

En fin, como se ve, hay muchas formas de expresar la actualización y serán los usuarios que agradecerán este esfuerzo.

Los dioses bajan del Olimpo, a Dios gracias

Lo más cerca que había estado de mi ídolo en Arquitectura de Información, fue el 13 de marzo de 2003, un viernes, al mediodía. Lou Rosenfeld dio una charla (sobre la cual publiqué en mi blog “internacional”) en el DCC de la Chile, invitado por Ricardo Baeza Yates y Javier Velasco.

Javier Velasco, con cara y ánimo feliz, al dar la noticia
Javier Velasco, con cara y ánimo feliz, al dar la noticia.

Sin embargo, a Dios gracias, Javier ha anunciado en su weblog que tendremos una oportunidad de oro para conocer de primera mano lo que está ocurriendo en el campo de la AI. El está organizando, con la ayuda de sus amigos, la “Primera Cumbre Latinoamericana de Arquitectura de Información”, que tendrá lugar en Santiago el 2 y 3 de noviembre de este año.
Hasta ahora se sabe que vendrán Peter Merholz (EEUU), Jesse James Garrett (EEUU), Gene Smith (Canadá), Peter Van Dijck (Bélgica), Jorge Arango (Panamá) y Nacho Puell (España) y que habrá otros especialistas locales. ¡Qué oportunidad! Desde ya estoy contento. A juntar ganas y a trabajar, entonces.

Gran asistencia al primer seminario de Arquitectos de la Información

Con una gran asistencia al Primer Seminario de Arquitectura de Información, Usabilidad y Contenidos Digitales, los arquitectos de información chilenos le dieron el vamos a una comunidad que buscará organizarlos en los próximos meses.

Felipe Almazán y Juan C. Camus, quienes actuaron como organizadores del evento que se desarrolló durante el viernes 19 en el Salón Raulí del Hotel Galerías, se mostraron muy contentos por los resultados del encuentro, la asistencia y el buen nivel de las presentaciones realizadas.

Se debe recordar que las presentaciones fueron desarrolladas por profesionales de diferentes ámbitos, las cuales se entregan en esta misma página para ser bajadas a su computador en diferentes formatos.

Otro de los resultados inesperadamente alegres de la jornada, fue la oferta recibida de parte de la empresa Altavoz, que entregó su sistema administrador de contenidos y su programa de envío de mails, para gestionar y mantener el futuro sitio de la comunidad. Encargado de su implementación quedó F. Almazán.

En tanto, Camus quedó a cargo de las comunicaciones y de la difusión de las actividades que desarrolle la comunidad, como también de canalizar las actividades que realicen los voluntarios que colaborarán en las actividades que se desarrollen durante 2004.

Es importante considerar que la Comunidad AI chilena que se está desarrollando cuenta con el apoyo del Asilomar Institute for Information Architecture (www.aifia.org), que es una de las entidades mundiales más reconocidas en la materia. Adicionalmente, el encuentro fue patrocinado por las Universidades de Chile, Diego Portales y Mayor, entidades con las cuales se espera seguir manteniendo un alto grado de colaboración.

Presentaciones del Seminario

A continuación se entregan las presentaciones que hicieron los expositores durante el seminario.

Parte I – Planificación: cómo nace un proyecto web

Cómo cubrir las expectativas del cliente
Sr. Roberto Eskenazi, Periodista Universidad de Chile
Bajar Presentación (archivo .zip de 0.4 Mb)

Gestión de Proyectos TIC
Sr. Mario Villarroel Game (XPI) – Bajar Presentación (archivo .zip de 0.6 Mb)
Sr. Felipe Almazán Tepliski (BCN) – Bajar Presentación (archivo .zip de 1 Mb)

Gestión del Conocimiento
Sr. Alfonso Pérez
Director Adjunto, Biblioteca del Congreso Nacional
Bajar Presentación (archivo .zip de 1.2 Mb)

Parte II – Organización de los Contenidos Digitales

Arquitectura de Información, Usos y Herramientas
Srta. María Luisa Gutiérrez (www.malisa.cl)
Arquitecto de Información
Bajar Presentación (archivo .zip de 5.8 Mb)

Contenidos: cómo se decide y comprueba qué es lo que el usuario quiere ver
Sr. Juan Carlos Camus, Periodista Universidad Católica
Consultor en contenidos digitales (www.usando.info)
Bajar Presentación (archivo .zip de 0.5 Mb)

Parte III – Diseño de Información y Experiencia

Diseño centrado en la experiencia del usuario
Sr. Jorge Barahona Ch., Director Ejecutivo de AyerViernes S.A.
Bajar Presentación (archivo .zip de 4.1 Mb)

Estándares y Diseño en la Web
Sr. Paulo Saavedra, Sr. Nelson Rodríguez-Peña
Estándares de web y su impacto en el diseño de sitios web; ejemplos de aplicación en casos prácticos
Bajar Presentación (archivo .zip de 0.8 Mb)

Parte IV – Mantención de Contenidos

Mantención de Contenidos Digitales: ¿quién y para qué necesita un CMS?
Sr. Rodrigo Guaiquil (www.guaiquil.net)
Periodista (Universidad Nacional Andrés Bello)
Director Medios Digitales de Copesa
Bajar Presentación (archivo .zip de 1.2 Mb)

Mouse.cl: Una Experiencia de Contenidos
Sr. Manuel Contreras (www.mouse.cl)
Periodista (Universidad de La Frontera)
Editor revista Mouse.cl
Bajar Presentación (archivo .zip de 3.5 Mb)

A 20 años de la guerra

Por estas semanas se estarán viviendo los 20 años de cada una de las acciones bélicas que marcaron el desarrollo de la guerra entre Argentina y Gran Bretaña por la posesión de las Islas Malvinas, que los ingleses llaman Falklands Islands.

Las acciones reales comenzaron el 2 de abril de 1982 cuando los argentinos invadieron el archipiélago conformado por casi cien islas e islotes y tomaron el principal poblado, llamado Port Stanley y rebautizado como Puerto Argentino, para la ocasión.

La reacción no se hizo esperar. Tres días más tarde comenzó a navegar hacia el sur, partiendo desde Portsmouth, al sur de Gran Bretaña, la escuadra británica que arribaría hacia fines del mes a las Georgias del Sur y, desde allí, comenzaría la ofensiva que le llevaría a ganar la guerra a mediados de junio.

En esos 74 días, se produjeron múltiples combates y las bajas superaron las mil personas: 750 argentinos y 255 británicos murieron en el conflicto del Atlántico Sur.

Veinte años después, múltiples sitios de Internet están dedicando sus espacios a lo ocurrido en ese período, sus razones y consecuencias y más que nada, a rescatar informaciones desde diversos ángulos para intentar mostrar qué ocurrió.

Gracias a la Internet, actualmente es fácil estar en los dos lados del conflicto, para ver cómo lo recuerdan. Como todo en la vida, se encuentran interpretaciones diferentes, dependiendo de quién dé la explicación. Hay desde quienes justifican todo lo que pasó en las islas; quienes piden perdón por haberlo provocado; hasta quienes se sienten orgullosos de los resultados. Todo depende del cristal con que se mire.

Sin embargo, esto no se vive con esa intensidad en los sitios periodísticos y para escribir esta columna, tomé los de dos medios importantes en cada país: la BBC de Gran Bretaña y el diario La Nación de Argentina.

Ambos coinciden mucho en su cobertura histórica. Por ejemplo, en asignar la responsabilidad al gobierno militar; en destacar la crudeza de una guerra y los graves efectos que deja en los combatientes y en mostrar cómo se vive en cada país hoy ese recuerdo. Abundan los historiadores con sus análisis y los militares describiendo qué hicieron o cómo sufrieron.

Pero llama la atención de que los medios se refieran a una manera bastante imparcial a los hechos. Puede ser, por ejemplo, que los 20 años que han pasado hayan calmado los ánimos o que las situaciones del presente –como los problemas económicos argentinos o el fallecimiento de la Reina Madre en Gran Bretaña- hayan temperado los ánimos, pero en ambos lados de las informaciones se nota el interés de los redactores de no crear una visión parcial.

Por ejemplo, en el sitio de la BBC es interesante ver cómo en la historia de las islas se le da tanto el favor a las posiciones de Gran Bretaña como a las de Argentina, al explicar cuál de ellos tenía mayores merecimientos históricos por la soberanía del lugar. Y es atractivo ver en el medio argentino un poema de Jorge Luis Borges reclamando contra la guerra. “Hubieran sido amigos, pero se vieron / una sola vez cara a cara, en unas / islas demasiado famosas, y cada / uno de los dos fue Caín, / y cada uno, Abel”, dice.

Es interesante ver cómo estos medios de comunicación, que se incluyen entre los más importantes de estos dos países que vivieron el conflicto, han sabido ofrecer calma a sus usuarios a través de estos recuerdos y reflexiones de veinte años y, a través de eso, darles esperanzas para los tiempos que vienen.

¿Quieres saber más?

Ocho años del web en Chile

Si, como dice el tango, veinte años son nada, ¿cuántos son diez? Es la pregunta que hay tras el World Wide Web, una tecnología tan simple como increíble, que en un período tanto corto como una década, ha generado enormes cambios a nivel global.

Aunque nació como un método para compartir documentación entre físicos teóricos, sus alcances muy pronto salieron de ese grupo, para recibir usos en todos los ámbitos posibles, desde comercio hasta comunicaciones a lo largo y ancho del mundo.

Formalmente, el Web nació en 1990 como un proyecto del físico inglés Tim Berners-Lee orientado a facilitarle la vida a los físicos que trabajaban en el Laboratorio CERN en Suiza, ya que permitía buscar y ver documentos almacenados en una base de datos y compartir esos documentos por Internet.

Trabajó en él durante 1991, con el objetivo de mostrarlo en una reunión mundial de físicos a realizarse en enero del año siguiente. Pero en septiembre, lo visitó Paul Kunz, un físico que trabajaba en el Stanford Linear Accelerator Center (conocido por su sigla SLAC) y juntos vieron el nuevo programa en el computador Next de Berners-Lee.

Tras probar sus capacidades y ver cómo lo usaba, Kunz volvió a Estados Unidos convencido de que debía hacer un sistema similar, para permitir el acceso a la base de datos de SLAC, que contenía 200 mil documentos referidos a investigaciones hechas en ese laboratorio.

Pero otras obligaciones, lo hicieron dejar el tema de lado, hasta que le llegó un mail de Berners-Lee, recordándole la demostración de enero. No pasó mucho tiempo, hasta que el 12 de diciembre de 1991, levantó el sitio de SLAC, que se transformó así en la primera página web de Estados Unidos.

De esa manera, el 15 de enero siguiente Berners-Lee ya tenía dos sitios para mostrar: el suyo y el de Kuntz. La presentación dejó con la boca abierta a los casi 200 físicos que se congregaron en el pueblito de La Londe, en el sur de Francia. Si desde allí, a pocos kilómetros de la mítica playa de Saint Tropez, se podía ver eso… desde cualquier lugar del mundo podría hacerse.

Por eso, cuando regresaron a sus universidades y laboratorios, todos los asistentes tenían una sola cosa en mente: entrar a Internet y comenzar a publicar sus propios documentos a través del web.

La telaraña mundial estaba comenzando.

Llega a Chile

La tecnología se demoró un poco en llegar a Chile. Exactamente un año y medio. Fue en 1993 cuando se comenzó a investigar su uso a través de un curso de José Piquer, quien era profesor del Departamento de Ciencias de la Computación de la U. De Chile y había estado totalmente vinculado con la llegada de Internet al país, en enero de 1992. De hecho, era (y sigue siendo) el encargado del registro de dominios de Internet en el país, a través de NIC Chile.

Sus alumnos José “Pepe” Flores y Eduardo Rodríguez –que más tarde crearon las empresas de Internet, Tecnonáutica y La Brújula, respectivamente- tomaron a cargo la tarea de revisar y tratar de hacer caminar ese primer web.

“Como parte de un curso con Jpiquer, en que veíamos tecnologías emergentes para sistemas, me tocó ver esto del web. Instalamos “Mosaic 0.6x” que sólo existía para Unix luego servidores http (el primero fue http_cern). Eso debe ser como a finales del 93”, recuerda Flores.

Como en esa época no había ni buscadores globales, ni servicios de índices como los que ofreció desde el ’94 el sitio Yahoo!, la lista de sitios disponibles en el mundo era la que manejaba el laboratorio CERN en Suiza, hogar de Berners-Lee.

“Como en el índice de sitios que se manejaba en CERN no existía ni Chile, ni Sudamérica y habían pocos sitios en el mundo (algo así como 400 sitios), decidimos hacer una “página para Chile” para poder enlazarnos a nosotros mismos”, cuenta Flores. Para hacerlo, tomaron un mapa que Eduardo Rodríguez “había hecho a mano y lo pintamos … después de varias iteraciones creamos el mapa que está en http://sunsite.dcc.uchile.cl/chile (al principio indicaba sitios Gopher y WWW)”.

Rodríguez tiene recuerdos similares, en especial con el mapa, que le tomó varias horas de trabajo terminarlo. “Yo hice el mapa y Pepe le puso los botones y programó las primeras páginas, mientras que yo me encargué de instalar el servidor”.

Además, recuerda claramente que en el segundo semestre del ’93 viajó a Estados Unidos. Precisamente al Sillicon Valley. Y quedó asombrado: “Recuerdo que iba en tren a San Francisco leyendo el San José Mercury News y había un aviso a página completa del hotel Crowne Plaza, ofreciendo hacer reservas por Internet. Y pensar que en Chile, recién estábamos empezando. Eso me dio una idea de todo lo que veía para adelante”.

También conoció los inicios del índice Yahoo! y se dio cuenta que nunca un sistema de ese tipo iba a poder abarcar Chile. “Por eso nació La Brújula, para hacer un índice que se dedicara a Chile”, explica.

Hasta en Chile

Rodríguez cuenta que ese mismo ejemplo hotelero, le permitió en los meses siguientes explicar las capacidades y posibilidades de Internet, ya de regreso en Chile.

Y el hecho de que nuestro país tuviera páginas web, era un argumento que se usaba en el extranjero para indicar el alcance de la red.

Flores indica que “la ‘Primera guía impresa de sitios Web del Mundo’, cabía en un sólo libro y como era el tiempo en que había que “vender el concepto del web” consignaron un lugar destacado a este lejano país … no recuerdo exactamente las palabras pero se referían a que el Web era tan usado “que incluso en Chile se utilizaba para ver el estado del tiempo””. Ese servicio del tiempo se debía a información entregada por la Dirección Meteorológica de Chile, a través de un contacto del también profesor del DCC, Patricio Poblete.

Lo que vino después, fue prácticamente una explosión. En 1994 comenzaron a aparecer más sitios, especialmente universitarios y los primeros de carácter comercial, incluyendo el Diario Electrónico de Copesa, con noticias de Chile actualizadas semanalmente.

Y, mirando con la perspectiva del tiempo, Rodríguez y Flores sacan sus propias conclusiones. El primero, explica que “antes del web la Internet era muy hostil con el usuario; había que ser ingeniero para hacer algo, para encontrar algo. Esto lo cambió todo y nos abrió muchas oportunidades”.

Flores agrega que su paso por el web le permitió aprender mucho sobre cómo enfrentar las nuevas tecnologías: “Entrar a una nueva-ola-tecnológica antes, te da la visión y experiencia para consolidar negocios cuando la tecnología ya ha madurado y ha sido adoptada por la sociedad. Si esto se convierte en una práctica sistemática tenemos una oportunidad de desarrollo de nuevas empresas en el país”.

Una mirada hacia el futuro

Gordon Moore era director de una empresa que hacía procesadores cuando describió en 1965 la ley que llevaría su nombre. Esta indicaba que cada año los procesadores doblarían su capacidad de procesamiento. Luego la revisó y predijo que cada 18 meses ocurriría este fenómeno. Al poco tiempo, junto a sus colegas Robert Noyce y Andy Grove fundó Intel y desde allí comenzaron a hacer circuitos integrados con los que dieron origen al primer computador. Tras eso, la historia es más conocida.

Los hechos le han dado la razón a Moore y su ley y eso fue una de las causas por las cuales el Presidente de Estados Unidos, George W. Bush, le otorgó en julio pasado la “Medalla Presidencial de la Libertad”, el más alto reconocimiento del gobierno a un civil.

No obstante, en una entrevista, tras haber asistido a la ceremonia en la Casa Blanca, Moore fue cauto al hablar del futuro.

“Doblar el número de procesadores es un proceso que se hará lento con el tiempo, porque uno se topa con el hecho de que los materiales están hechos de átomos”, explicó.

Y al dar esta explicación, Moore metió de lleno a la computación en otro ámbito que ha ido avanzando silenciosamente, pero no por eso menos rápido. Se trata de la nanotecnología, o la tecnología de fabricar objetos cuya dimensión se mide en átomos.

Para entenderlo, hay que ir por partes. Primero pensemos en un milímetro, que es la milésima parte de un metro. Si dividimos ese milímetro en mil partes, cada una se llamará micrón. Y si dividimos el micrón en mil partes, obtendremos un nanómetro… es decir, la millonésima parte de un milímetro. Así de chico. Tanto, que en un nanómetro apenas caben entre 3 y 5 átomos.

Si medimos con estas unidades lo que ocurre dentro de un procesador de computador, veremos que los Pentium trabajaban a 0.35 micrones, es decir, a 350 nanómetros. Actualmente se trabaja en 100 nanómetros e Intel anunció el pasado 19 de septiembre que había comenzado a trabajar en la tecnología 3-D que funciona en 30 nanómetros y que mostrará sus primeros resultados en siete a ocho años más.

Lo interesante de este descubrimiento se da en dos ámbitos. El primero es que la tecnología 3-D funciona en tres dimensiones, por lo cual los transistores tienen volumen y por lo tanto pueden transportar señales por arriba y por ambos costados, a diferencia de la tecnología actual en que lo hacen sólo por la parte superior. Y eso significa que esos dispositivos sólo pueden enviar señales por un lado, mientras que los 3-D lo harán por tres lados, triplicando su capacidad y dándole razón nuevamente a Moore.

El segundo ámbito es que al llegar a esa época –hablamos del año 2010- se estará trabajando ya a escala atómica, donde, hasta ahora, es imposible hacer divisiones que permitan seguir generando más espacios de crecimiento.

¿Habremos llegado entonces al fin de la ley de Moore? Probablemente. Pero, y he aquí lo interesante de esto, el propio Moore creía que no se podría avanzar a un nivel más fino de 300 micrones. Pero la investigación probó lo contrario.

Entonces, tiempo al tiempo, que la innovación tiene aún mucho que decir.

¿Quieres saber más?

Nostalgia de Napster

Cuando el mundo era simple, o sea, antes del cambio de milenio, un chico de 19 años que no tenía toda la música en formato mp3 que le gustaría tener, halló la solución para ingresar y copiar el contenido de las computadoras de sus compañeros de la Northeastern University, en Boston, Massachussets.

El nombre de la nueva tecnología era Napster y la fecha, comienzos de 1999.

No pasaron más de seis meses cuando toda la industria de grabaciones musicales de Estados Unidos, la más poderosa del mundo, se le vino encima. ¿La razón? Pues que a través de su sistema, mucha gente estaba copiando música, sin pagar los derechos de autor que les correspondían.

A dos años del comienzo de esa pelea judicial, las cosas están muy diferentes. Napster está demandado y gracias al pago de varios millones de dólares, podrá salir de nuevo a funcionar… ya que un fallo judicial le obligó a terminar el tipo de operaciones que estaba haciendo. Pero cuando lo haga, tendrá que pagar los derechos de autor por cada canción que se comparta mediante su sistema, lo que significa que ya no podrá ser gratis como antes.

Adicionalmente, quienes quisieron operar como Napster, compartiendo canciones digitales a través de Internet, también han sido demandados. Es el caso de MusicCity que tiene el sistema Morpheus en funcionamiento, FastTrack, con Kazaa, y Grokster.

Sin embargo, como ya se descubrió que existe un interés por contar con el servicio de entrega de música online, las propias empresas que graban y venden la música ya están preparando sus propios servicios. AOL Time Warner, EMI y Bertelsmann se juntaron con RealNetworks para crear MusicNet, mientras que Universal Music y Sony Music darán luz a Pressplay.

Ambos conglomerados, aunque tienen estrategias distintas, actualmente están haciendo lo mismo: licenciar su servicio a terceros para lanzar sistemas que entreguen música a cambio de un pago. Y todo a través de Internet, hacia fines de este año. Es decir, tal como lo hará Napster cuando vuelva a los negocios.

Y, para completar el cuadro, a principios de octubre se consiguió el último elemento para que este negocio comience: el acuerdo entre los autores y los productores de discos, para que cada vez que una canción se venda por Internet, se pague una cantidad por concepto de derechos de autor.

Así las cosas, está claro que el mundo que existía cuando surgió Napster ya no es el mismo y que un sistema como aquél, no ya puede prevalecer.

Otro signo más de que la Internet gratis en la cual crecimos, está cambiando para siempre.