Archivo de la etiqueta: Historia

Temas relacionados con eventos relevantes de la historia digital.

Los bots proliferan en las elecciones (y no se van a ir)

La utilización de las redes sociales ha traído un importante aporte a las investigaciones en comunicaciones gracias a la capacidad de acceder a grandes volúmenes de datos que se producen por estos medios, que luego pueden ser analizados mediante sistemas automatizados.

Es el caso del trabajo presentado hoy por los investigador del Instituto Milenio Fundamentos de los Datos (IMFD), Marcelo Mendoza, Marcelo Santos y Sebastián Valenzuela acerca de la participación de bots (cuentas automatizadas en Twitter) en la campaña presidencial que culmina en las elecciones de este fin de semana.

Ellos acaban de publicar una revisión al comportamiento de las interacciones entre las cuentas de los candidados J. A. Kast y Gabriel Boric a través de un análisis computacional hecho con una herramienta llamada Botcheckcl. Al respecto explican que esta herramienta «usa técnicas de inteligencia artificial para detectar patrones en los perfiles, contenidos y timelines de cuentas de Twitter. Con una precisión del 95% en datos del benchmark, Botcheckcl entrega un puntaje de confianza de la predicción, que varía entre 0 y 1. Confianzas cercanas a 1 indican con alta probabilidad la detección de una cuenta bot. Calibramos el método, para alcanzar una confianza acumulada superior al 95%».

¿Qué hallaron? Lo sintetizan al inicio del artículo publicado a través del sitio web Tercera dosis: «Un análisis computacional a las cuentas bots que siguen a cada candidato en Twitter muestra que la proporción de bots de izquierda que siguen a Kast es mucho menor (4%) que los bots de derecha que siguen a Boric (30%). Estos datos son consistentes con el tipo de campaña planteada desde cada comando, “con tendencia a polarizar la conversación, más que promover la deliberación”, concluyen los autores».

Luego en las conclusiones ofrecen más datos:

  • Se puede inferir que los bots identificados ideológicamente con la derecha evocan emociones significativamente más negativas con su vocabulario comparados con los bots identificados con la izquierda.
  • Aunque hay bots que se presentan como tales, hay otros que ocultan ser un bot, engañan a los usuarios respecto de quiénes son y cuál es su propósito, y tienen por función contaminar las redes sociales con ataques, desinformación u otro tipo de contenido malicioso.
  • Nuestro análisis presenta indicios que refuerzan la hipótesis de comportamiento inauténtico coordinado por parte de la campaña de Kast, con bots que lo siguen y que presentan tintes ideológicos y emocionales afines a su candidatura. En otras palabras, el estudio revela que el uso de lenguaje negativo en el caso de los bots de derecha se correlaciona con el tipo de campaña desplegada por el comando de Kast.

Por lo visto y como seguiremos en varias jornadas políticas en el año que viene, se puede sospechar que los bots serán una presencia permanente y que será muy adecuada la existencia de herramientas que los revelen. Bueno sería, además, que quienes informan y quienes distribuyen material en redes se dieran cuenta si lo que ofrecen viene de alguien que siente y cree lo que dice, o solo están siendo manipulados por algo.

Canciones no cantadas para héroes desconocidos

Suele ocurrir que investigo mucho y aprendo de cosas de las que finalmente no escribo. Es lo que se llama información de background y sirve para fundamentar lo que se aprenderá más tarde. O definitivamente, no sirve para algo, sólo es importante porque permite saber algo más.

Es lo que me pasa con una anécdota que desde que la conocí me interesó y, luego de eso, la he ido entendiendo a partir de diversas fuentes.

Se trata de las visitas que hizo Steve Jobs a Xerox PARC, un laboratorio increíble montado en Menlo Park, California (mismo lugar donde Edison hizo sus trabajos) por la empresa Xerox en los años 1970s.

En la biografía de Jobs hay un relato de ese momento. En entrevistas publicadas a Bill Gates, hay otros. En particular porque Jobs acusó en su momento a Microsoft de robarle ideas para hacer Windows y Gates le respondió que ambos le robaron a Xerox.

¿Qué había allí? Pues, un conjunto increíble de personas trabajando en el concepto de cómo debía ser el primer computador personal. Tenía interfaz gráfica, íconos, el menú en la parte superior de la pantalla, impresión del tipo WYSIWYG (lo que se ve en pantalla es lo que sale por la impresora), mouse, comando deshacer y comandos para cortar y pegar. Todo eso antes de Apple y Windows.

Jobs invirtió en el laboratorio a cambio de una demo. Una de las personas que hizo estuvo en el comando del computador, porque había inventando gran parte de lo que se estaba mostrando, era Lawrence Tesler. El mismo que murió el pasado 23 de febrero, dejando una serie de testimonios pequeños y escondidos acerca de cómo se fue gestando la forma que tienen los computadores y las interfaces que hoy usamos.

Casi como un héroe desconocido, cuya historia no ha sido contada ni cantada. Así que invito a leer y mirar:

  • Un artículo de la IEEE sobre su vida
  • El obituario publicado por el NYT
  • Este video que, tras la muerte de Jobs, reunió a una serie de figuras del mundo Apple a contar acerca de Steve y sus métodos.
Foto de Lawrence Tesler usando un computador en la década de 1970
Lawrence Tesler usando el Xerox Alto, el computador que reunió todos los conceptos que luego harían famosos a Macintosh y a Windows.

La red es el computador y no necesitas más

Desde hace un tiempo largo he estado leyendo y escribiendo acerca de algo que en los últimos meses está comenzando a ocurrir.
Se trata de que para desarrollar aplicaciones computacionales necesitamos dos elementos básicos: hardware y software. Con la llegada de Internet, a este par se agregó esa red.
Con el paso del tiempo, al intentar que las aplicaciones fueran más rápidas y aceptaran más desafíos (más usuarios, más datos, etc.) se descubrió la necesidad de que mayor potencia para el manejo de datos, lo que se resolvió mediante grupos de máquinas que resolvieran la tarea. Con ello apareció el germen de lo que vemos hoy: granjas de computadores que permitían montar aplicaciones sobre ellas y de esa manera, facilitar la tarea a quienes no podían contar con esos dispositivos por temas de costos u otros similares.
Pero, y acá viene lo interesante, desde hace algunos meses ese tipo de infraestructura se ha comenzado a arrendar para que cualquiera pudiera emplear dicha potencia en sus proyectos.
Con esto no tardaron en aparecer voces para indicar que en el mundo ya sólo se necesitan unos pocos computadores para hacer caminar aplicaciones complejas; entre ellos, los de Google, Amazon, Sun, Akamai y algunos más. Incluso mañana hay un seminario vía web en el que Nick Carr presenta el tema de su libro “The Big Switch” referido a este tema, que pone a Google como el ejemplo de hasta dónde se puede llegar a través de su “cloud computing”.
El tema central es que hoy no se necesitan computadores personales enormes para procesar datos, sino que sólo máquinas que tengan un browser para acceder a Internet, ya que a través de la red se accede a todo y a todos. Claramente, muchas preguntas nacerán de este nuevo estado de las cosas, por temas de privacidad, autonomía, propiedad, etc.
Lo interesante es que vivimos en esta época y podremos ver cómo y hacia dónde evoluciona. Incluso ya hay quienes lo ven con algo de preocupación, como el propio Carr lo dijo a Wired ante la pregunta de si estas máquinas gigantes, hiperconectadas, no le recordaban a HAL, la computadora que se salió de control en la la película 2001, Odisea del Espacio. El responde:

Lo que más asusta de la visión de Stanley Kubrick no era que los computadores comenzaran a comportarse como humanos, sino que las personas comenzaran a actuar como computadores. Estamos comenzando a procesar información como si fuéramos nodos; todo está referido a la velocidad para ubicar y usar los datos. Estamos transfiriendo nuestra inteligencia a la máquina, y la máquina nos está transfiriendo su manera de pensar”.

¿Será hora de preocuparse?

El ataque digital a Estonia

Leyendo una nota de ayer publicada por NYT.com me di cuenta de la gravedad del ataque digital a Estonia, un país ubicado al norte de Europa, frente a Suecia y a espaldas de Rusia. No es un país cualquiera, ya que de allí vienen productos tan novedosos como Skype y Kazaaa, además de contar con un Gobierno que sí cree en la tecnología y la usa, hasta en sesiones de gabinete.
Pues bien, desde fines de abril pasado, en forma simultánea a los desórdenes en la calle en protesta porque el Gobierno estaba removiendo un monumento en honor a los soldados soviéticos de la Segunda Guerra Mundial, sus redes de datos se vieron colapsadas por ataques que lanzaban millares de mensajes y que impedían su funcionamiento. Llegaban desde todas partes del mundo: Vietnam, Perú, Estados Unidos. Se asume que eran “bots” programados para hacerlo y que no eran pocos, ya que se estimó en un millón el número de computadores desde los cuales nacieron estos ataques. Para la semana del 10 de mayo, se estimaba que estaban llegando 90 megabits por segundo a las redes del país por períodos de 10 horas. El diario explica que era “los datos equivalentes a bajar el sistema operativo Windows XP completo cada seis segundos, por 10 horas”.
En Tallinn, la capital, habían oficiales de la OTAN, Estados Unidos e Israel ya que si bien veían que Estonia se defendía bien, viajaron a aprender de este primer ataque masivo a un país, registrado en la historia.
Los ataques más fuertes se registraron hasta el 18 de mayo y aunque han seguido, no tienen la intensidad del principio.
No se sabe quiénes fueron los autores, sí se sospecha de algunos ya que en foros en idioma ruso se trató de este tema, varias semanas antes del ataque.

Bienvenidos a la Prehistoria

Hay pocas cosas claras por estos días en el negocio de la publicación de noticias por Internet. Hay varios modelos corriendo una carrera para intentar definir cuál será el ganador, el que se imponga sobre los otros. ¿Dejar todo gratis? ¿Cobrar por algunas noticias? ¿Cobrar por todas las noticias? ¿Privilegiar la interacción?

Por ejemplo, desde este lunes 18, “El País” de España comenzó a cobrar por sus contenidos. Durante un mes continuará ofreciendo acceso gratuito, pero la idea es que sea sólo para probar. Tras ese período, si se quiere ver el diario, hay que pagar 80 euros por año. Lo mismo han anunciado en ese país “El Mundo” y “ABC”, aunque en esos casos la decisión no es tan dramática, sino que se cobrará sólo por partes de la producción de noticias en línea, mientras el resto sigue gratis.

Otro ejemplo, llega desde más cerca. “Clarín” de Argentina comenzó la semana pasada a ofrecer un servicio novedoso. Se trata de entregar por Internet imágenes de cada una de las páginas su diario, tal como aparece impreso. Es decir, una edición electrónica del impreso. No es gratis, por supuesto. Cuesta 55 dólares al año. Por ahora se puede ver el sistema funcionando, sin pagar. Como indican ellos en su portada, “para empezar a experimentar las ventajas de la edición electrónica”.

Un ejemplo en otra área entrega la sección de noticias del buscador Google. Utilizando el mismo sistema computacional que emplea para indexar la red, genera una página con un resumen de los principales titulares de 4 mil fuentes de noticias tomadas de medios en inglés en todo el mundo. La “gracia” de este sistema, es que no hay humanos involucrados: todo el proceso de selección y creación del sitio de noticias, lo hacen computadores.

Y por último, no hay que dejar fuera los “weblogs”, que son páginas de Internet en que cualquier persona puede escribir un diario personal y publicar lo que quiera, con la periodicidad que desee. Blogger.com es una de las compañías que ofrece estos servicios –gratuitos, por cierto- y anuncia por estos días que ya hay 750 mil de estos “diarios” funcionando.

Para entender todos estos experimentos es bueno comparar los medios digitales con los impresos.

El web comenzó hace 10 años y los primeros “diarios digitales” datan de 1994, con lo cual el uso de la Internet por parte del periodismo mundial, lleva alrededor de 8 años. En tanto, los medios impresos han recorrido un largo camino, puesto que el primer periódico impreso data de 1457.

Por lo mismo, sus diferencias son importantes. Los impresos funcionan en una industria consolidada, donde hay poca experimentación y está claro cuál es el modelo: conseguir audiencia y luego vender publicidad a quienes deseen llegar a dicha audiencia.

Los digitales han intentado eso y mucho más, porque de hecho, por varios años se han tratado de emular diferentes modelos de negocio, sin éxito.

Por lo mismo, esto nos deja con la sensación de que ni siquiera hemos llegado al período de la “historia” en el uso del web en periodismo; en realidad vivimos la “prehistoria”. Y eso significa que aún quedan intentos por hacer y experimentos por desarrollar. Y que, naturalmente, mucho de lo que vemos por estos días, probablemente no resistirá el paso del tiempo.

Se siente que aún nadie ha llegado a una solución definitiva para el negocio. Está claro que hay una tecnología para ser usada como es el web y la Internet. Pero también queda en evidencia que no hemos sabido aprovecharla como corresponde.

Es, finalmente, un buen tiempo para la creatividad y la tecnología, dos áreas en las que podemos ser tan buenos aquí como cualquiera en el mundo, ya que contamos con la Internet y podemos mostrar nuestro trabajo en todo el mundo. Todas éstas son ventajas que el web le ha dado al periodismo, pero a las que aún –entre varias otras- no les hemos sacado provecho. Es el problema de ser prehistóricos, ¿no?

¿Quieres saber más?

Podemos cambiar el mundo

En San Francisco, bella ciudad que mira al mar en la costa oeste de Estados Unidos, el sistema operativo Linux vio cumplido un sueño que probablemente su creador ni siquiera se puso por delante: conquistar el mundo.

Linus Torvalds, un programador finlandés de 21 años en esa época, necesitaba de un sistema operativo tipo Unix para su computador. Así que comenzó a trabajar para hacer uno que se pareciera a Minix (un derivado de Unix que se usaba para enseñar en la universidad), que cumplía con trabajar para el procesador 386 de Intel.

Para conseguirlo hizo varias cosas brillantes. Primero, claro, hizo su trabajo. El mismo se encargó del kernel del nuevo sistema operativo, que viene a ser como el centro de todo. Luego, publicó un aviso en un grupo de noticias de Internet, invitando a otros a apoyarlo con programación e ideas. Era la versión 0.02. Y por último, creo un sistema de veras colaborativo para que todos los participantes pudieran estar enterados de las últimas novedades sobre el sistema operativo y aportaran con lo suyo en la tarea.

El tiempo y los buenos resultados hicieron el resto. El sistema operativo comenzó a funcionar realmente bien, muchos jefes de sistemas comenzaron a confiar en él para aplicaciones realmente importantes y pronto llegaron aplicaciones comerciales que estaban basadas en dicho sistema operativo, a transformar el paisaje de las salas de servidores de las grandes compañías.

Pero faltaba algo. Y eso comenzó a pasar el año pasado y el actual. Fueron hitos bastante concretos. La base instalada de máquinas con Linux, superó los 10 millones. Aparecieron servicios de renombre mundial, basados en ese sistema operativo, como por ejemplo, el servicio de búsqueda de Google. Y, lo último, ocurrió en San Francisco en la primera quincena de agosto, cuando Sun se unió a lo que había hecho antes IBM, al anunciar que sus computadoras tendrían Linux en su interior. Y, más aún, su máximo ejecutivo, Scott McNealy, explicó que sus propios empleados usarían máquinas con Linux en un programa orientado a reducir costos de operación de su compañía. A eso agregarían un proyecto para que una línea de sus estaciones de trabajo también estuvieran equipadas con ese sistema operativo para venta a público.

Probablemente quienes estén un poco ajenos al mundo de las compañías de computación, verán con poco atractivo estos anuncios. Pero no hay que escarbar mucho para entender su real significado. Desde que el sistema Unix comenzó a ser usado en los años ’70, toda compañía que hiciera computadores quiso tener uno propio. Así IBM hizo AIX; Sun hizo Solaris, HP hizo HP-UX y así para adelante. Incluso Microsoft intentó lo propio, pero mantener la relación con el escritorio le obligó a que su NT se pareciera más a Windows que a Unix.

Por eso, que Linux esté ahora dentro de computadores de marcas reconocidas es algo de veras notable. Y, si consideramos que todo este vuelco hacia Unix motivado por Linux y su éxito como producto, fue generado sólo por una buena idea y las hábiles manos de una persona –el finlandés Linus-, el título de esta columna hace mucho sentido. Para conquistar el mundo sólo se necesita eso. Y ganas de hacerlo, claro.

¿Quieres saber más?

Señales de futuro

Fue a mediados de febrero cuando un par de noticias devolvieron la fe en el papel que la tecnología cumple, cuando se trata de dar sorpresas agradables.

La primera ocurrió justo el día 14, cuando al podio desde el que se abre la jornada en la bolsa de valores “New York Stock Exchange”, accedió no sólo un grupo de personas, sino que un robot humanoide. Se trató de Asimo, el último eslabón en la investigación sobre robótica que realiza Honda. Este fue el personaje elegido para recordar los 25 años en que la compañía japonesa está listada en dicha bolsa.

Asimo no sólo camina bastante bien, sino que sube y baja escaleras de manera suave y coordinada y hasta entiende órdenes habladas, abriendo una serie de posibilidades para que estas máquinas (¿es muy reciente para llamarle ente o entidad?) comiencen a jugar papel interesante en diferentes tipos de operaciones donde, hasta ahora es imprescindible la presencia humana.

La segunda noticia llegó un par de días antes, de parte de la compañía Foveon, con el anuncio de un novedoso chip que va dentro de las cámaras fotográficas y que por primera vez permitirá que las tomas digitales sean mejores que las películas basadas en sales de plata. Dicha innovación es tan importante, que una cámara de 3.5 millones de pixeles ofrece una resolución de 7 millones de pixeles y, mejor aún, usa menos memoria para almacenar la información de una imagen.

De hecho en un show sobre fotografías que se realizó en estos días en Orlando, dicho chip, ya montado en una cámara que está saliendo a público en marzo, fue la gran novedad.

Y la tercera noticia fue la publicación de nuevos avances sobre la llamada web “semántica”, que es una tecnología que permitirá la existencia de más inteligencia en Internet, de tal manera que cuando se haga una búsqueda se consigan resultados más relevantes para quien la realiza… basados en el contenido resumido de las páginas que se escojan. Y dicho resumen será hecho por las máquinas, no por los humanos.

Como se ve, la tecnología sigue avanzado ya que ésta depende no sólo de los sistemas sobre las cuales se apoya o de los fondos para seguir investigando que la puedan mantener viva, sino que de la creatividad de las personas y de la forma en que se abordan los problemas que requieren una solución. Y siempre hay alguien con la mente abierta y pensando un poco más allá, para darnos esa sorpresa que todos llamamos “nueva tecnología”.

Una mirada hacia el futuro

Gordon Moore era director de una empresa que hacía procesadores cuando describió en 1965 la ley que llevaría su nombre. Esta indicaba que cada año los procesadores doblarían su capacidad de procesamiento. Luego la revisó y predijo que cada 18 meses ocurriría este fenómeno. Al poco tiempo, junto a sus colegas Robert Noyce y Andy Grove fundó Intel y desde allí comenzaron a hacer circuitos integrados con los que dieron origen al primer computador. Tras eso, la historia es más conocida.

Los hechos le han dado la razón a Moore y su ley y eso fue una de las causas por las cuales el Presidente de Estados Unidos, George W. Bush, le otorgó en julio pasado la “Medalla Presidencial de la Libertad”, el más alto reconocimiento del gobierno a un civil.

No obstante, en una entrevista, tras haber asistido a la ceremonia en la Casa Blanca, Moore fue cauto al hablar del futuro.

“Doblar el número de procesadores es un proceso que se hará lento con el tiempo, porque uno se topa con el hecho de que los materiales están hechos de átomos”, explicó.

Y al dar esta explicación, Moore metió de lleno a la computación en otro ámbito que ha ido avanzando silenciosamente, pero no por eso menos rápido. Se trata de la nanotecnología, o la tecnología de fabricar objetos cuya dimensión se mide en átomos.

Para entenderlo, hay que ir por partes. Primero pensemos en un milímetro, que es la milésima parte de un metro. Si dividimos ese milímetro en mil partes, cada una se llamará micrón. Y si dividimos el micrón en mil partes, obtendremos un nanómetro… es decir, la millonésima parte de un milímetro. Así de chico. Tanto, que en un nanómetro apenas caben entre 3 y 5 átomos.

Si medimos con estas unidades lo que ocurre dentro de un procesador de computador, veremos que los Pentium trabajaban a 0.35 micrones, es decir, a 350 nanómetros. Actualmente se trabaja en 100 nanómetros e Intel anunció el pasado 19 de septiembre que había comenzado a trabajar en la tecnología 3-D que funciona en 30 nanómetros y que mostrará sus primeros resultados en siete a ocho años más.

Lo interesante de este descubrimiento se da en dos ámbitos. El primero es que la tecnología 3-D funciona en tres dimensiones, por lo cual los transistores tienen volumen y por lo tanto pueden transportar señales por arriba y por ambos costados, a diferencia de la tecnología actual en que lo hacen sólo por la parte superior. Y eso significa que esos dispositivos sólo pueden enviar señales por un lado, mientras que los 3-D lo harán por tres lados, triplicando su capacidad y dándole razón nuevamente a Moore.

El segundo ámbito es que al llegar a esa época –hablamos del año 2010- se estará trabajando ya a escala atómica, donde, hasta ahora, es imposible hacer divisiones que permitan seguir generando más espacios de crecimiento.

¿Habremos llegado entonces al fin de la ley de Moore? Probablemente. Pero, y he aquí lo interesante de esto, el propio Moore creía que no se podría avanzar a un nivel más fino de 300 micrones. Pero la investigación probó lo contrario.

Entonces, tiempo al tiempo, que la innovación tiene aún mucho que decir.

¿Quieres saber más?

Nostalgia de Napster

Cuando el mundo era simple, o sea, antes del cambio de milenio, un chico de 19 años que no tenía toda la música en formato mp3 que le gustaría tener, halló la solución para ingresar y copiar el contenido de las computadoras de sus compañeros de la Northeastern University, en Boston, Massachussets.

El nombre de la nueva tecnología era Napster y la fecha, comienzos de 1999.

No pasaron más de seis meses cuando toda la industria de grabaciones musicales de Estados Unidos, la más poderosa del mundo, se le vino encima. ¿La razón? Pues que a través de su sistema, mucha gente estaba copiando música, sin pagar los derechos de autor que les correspondían.

A dos años del comienzo de esa pelea judicial, las cosas están muy diferentes. Napster está demandado y gracias al pago de varios millones de dólares, podrá salir de nuevo a funcionar… ya que un fallo judicial le obligó a terminar el tipo de operaciones que estaba haciendo. Pero cuando lo haga, tendrá que pagar los derechos de autor por cada canción que se comparta mediante su sistema, lo que significa que ya no podrá ser gratis como antes.

Adicionalmente, quienes quisieron operar como Napster, compartiendo canciones digitales a través de Internet, también han sido demandados. Es el caso de MusicCity que tiene el sistema Morpheus en funcionamiento, FastTrack, con Kazaa, y Grokster.

Sin embargo, como ya se descubrió que existe un interés por contar con el servicio de entrega de música online, las propias empresas que graban y venden la música ya están preparando sus propios servicios. AOL Time Warner, EMI y Bertelsmann se juntaron con RealNetworks para crear MusicNet, mientras que Universal Music y Sony Music darán luz a Pressplay.

Ambos conglomerados, aunque tienen estrategias distintas, actualmente están haciendo lo mismo: licenciar su servicio a terceros para lanzar sistemas que entreguen música a cambio de un pago. Y todo a través de Internet, hacia fines de este año. Es decir, tal como lo hará Napster cuando vuelva a los negocios.

Y, para completar el cuadro, a principios de octubre se consiguió el último elemento para que este negocio comience: el acuerdo entre los autores y los productores de discos, para que cada vez que una canción se venda por Internet, se pague una cantidad por concepto de derechos de autor.

Así las cosas, está claro que el mundo que existía cuando surgió Napster ya no es el mismo y que un sistema como aquél, no ya puede prevalecer.

Otro signo más de que la Internet gratis en la cual crecimos, está cambiando para siempre.