Archivo de la etiqueta: SEO

Temas relacionados con optimización de buscadores (SEO).

El Panda de Google y por qué debería importarme

Desde febrero pasado en inglés y desde ayer en español y otros idiomas, el buscador Google está usando una nueva versión de su sistema de búsquedas (llamado Panda) para decidir qué sitios aparecen primero en las páginas de resultados del buscador.

El algoritmo se trata de algo bastante complejo y oculto, puesto que ellos mismos dicen en su blog que “no vamos a desvelar los auténticos indicadores que usamos para la clasificación en nuestros algoritmos porque no queremos que nadie juegue con los resultados de las búsquedas”.

Sin embargo, tras leer varias decenas de artículos y blogs, se podría decir que es un movimiento para aumentar la calidad de los resultados de las búsquedas, intentando eliminar a los sitios que le copian contenidos a otros y que sólo sirven como espacios para vender enlaces, que en la versión previa del algoritmo de Google, servían para hacer que un sitio subiera en la página de resultados. Es decir, mientras más enlaces recibía un sitio, mejor ubicado quedaba.

Se espera que con Panda esto termine y de hecho, en su post inicial, la compañía indicaba que esto afectaría a un 11,8% de las búsquedas y a juzgar por las reacciones que ha habido en el mercado (aquí se ven ejemplos: 1, 2 y 3), su implementación podría cambiar la forma de posicionar sitios en buscadores (lo que se conoce como SEO) por algún tiempo.

Por lo anterior, ¿qué es lo que hay que hacer ahora?

En Google dicen apostar por el contenido y por ello publican una serie de 23 preguntas, cuya respuesta (positiva en unos casos y negativa en otros), debe ayudar a los creadores de contenidos a darse cuenta de cuáles son los pasos a seguir.

Para efectos de revisarlas, ya que además permiten hacer una interesante prueba heurística acerca de la calidad del contenido de un sitio web, las dejo a su disposición para ponerlas en práctica:

  • ¿Confías en la información presentada en este artículo?
  • ¿Este artículo ha sido escrito por un experto, por una persona entusiasta que conoce bien el tema, o es más bien superficial?
  • ¿Contiene el sitio artículos duplicados, solapados o redundantes sobre el mismo tema o temas parecidos que contengan ligeras variaciones de palabras clave?
  • ¿Te sentirías a gusto si tuvieses que dar los datos de tu tarjeta de crédito en este sitio?
  • ¿Contiene este artículo errores de ortografía, estilísticos o de facto?
  • ¿Están los temas impulsados genuinamente por el interés de los lectores del sitio, o el sitio genera contenido en un intento por adivinar con qué se podría lograr una buena clasificación en los motores de búsqueda?
  • ¿Proporciona el sitio contenido o información original, informes originales, investigación original o análisis originales?
  • ¿Proporciona la página un valor sustancial en comparación con otras páginas que aparecen en los resultados de las búsquedas?
  • ¿Cuánto control de calidad se realiza sobre el contenido?
  • ¿Describe el artículo las dos caras de cada historia?
  • ¿Es el sitio una autoridad reconocida en el tema?
  • ¿Está el contenido generado en masa por un gran número de redactores o repartido en una amplia red de sitios, de modo que cada página o sitio individual no reciben demasiada atención ni cuidados?
  • ¿Está el artículo bien editado o parece producido de forma descuidada o con prisas?
  • ¿Para realizar una consulta sobre salud, confiarías en la información de este sitio?
  • ¿Reconocerías este sitio como fuente autorizada al mencionar su nombre?
  • ¿Proporciona este artículo una descripción completa y detallada del tema?
  • ¿Contiene este artículo un análisis detallado o información relevante más allá de lo obvio?
  • ¿Se trata del tipo de página que desearías guardar en tus marcadores, compartir con un amigo o recomendar a alguien?
  • ¿Contiene este artículo una cantidad excesiva de anuncios que distraigan o interfieran con el contenido principal?
  • ¿Esperarías ver este artículo impreso en una revista, una enciclopedia o un libro?
  • ¿Son los artículos cortos, insustanciales o carecen de algún otro modo de detalles específicos útiles?
  • ¿Están las páginas editadas con mucho cuidado y atención por el detalle o con poca atención?
  • ¿Se quejarán los usuarios al ver páginas del sitio?

¿Por qué hay que seguir a Matt Cutts?

Cada vez que les comento a mis alumnos cuáles son mis fuentes para estar al día en temas relativos a buscadores, sale su nombre. Y reafirmo que, pese a su importancia, es casi desconocido.

Así que quiero dedicarle un par de líneas a Matt Cutts, un ingeniero que trabaja en Google desde el 2000 y que tras participar en el equipo de calidad de búsqueda, hoy se dedica al tema del webspam.

Sigo su blog desde hace algunos años y la gracia de hacerlo, es que él es uno de los pocos empleados de Google (que yo conozco), que habla de su trabajo y cómo éste evoluciona. En la época previa a la aparición del blog para webmasters de Google, era casi la única fuente que encontré para entender qué pasaba en esa área y cómo evolucionaba ese negocio.

Ahora hay muchas más formas de llegar a esa información e incluso en el blog, usan mucho a Matt en formato de video, para responder las preguntas que llegan acerca de cómo va evolucionando esa área. Así que es más fácil de seguir y más simple para aprender.

Por ejemplo, en el siguiente video, explica que Google está usando las redes sociales para definir la posición de un sitio en su posicionamiento en las páginas de resultados del buscador. Esto era algo que la comunidad dedicada al SEO asumía que existía, pero no había sido confirmado hasta que se dio a conocer su respuesta. Lo cual, por cierto, valida su aporte.

Termino este post con algunos enlaces, para seguir a Matt:

¿Qué se le puede revisar a un sitio web?

Siempre existe la posibilidad de mejora continua (ver kaizen) en el desarrollo de sitios web, ya sea porque los apuros por terminar su desarrollo a tiempo, dejaron ciertos aspectos mal terminados o porque algunas áreas deben ser adecuadas de mejor manera a los cambios que va experimentando la audiencia que se debe atender, o bien en los objetivos que se quiere lograr con la presencia digital.

Para avanzar en este proceso, lo mejor es ir incorporando en el trabajo habitual de la mantención de los sitios, algunas evaluaciones que pueden ayudar en el proceso.

A raíz de la conversación que tengo en estos días con un desarrollador de sitios web que me pide evaluar un sitio en el que trabaja, hice la siguiente lista de las evaluaciones que se pueden aplicar, pensando en mejora continua.

  • Revisión de Usabilidad: Consiste en desarrollar un test heurístico que dé a conocer los problemas principales, como también las mayores fortalezas del sitio, gracias a una revisión completa de sus contenidos y funcionalidades. Normalmente este reporte genera una lista de tareas para hacer mejoras y cambios. En la Guía Web se puede bajar un documento con las preguntas más habituales para realizar esta tarea.
  • Revisión de Accesibilidad: Consiste en revisar los estándares utilizados en el sitio web, para determinar sus capacidades para ser utilizados por personas con discapacidades y hacer sugerencias de mejoras. A través de la aplicación Hera, se puede hacer la revisión automática de este test.
  • Revisión para SEO: Consiste en revisar tanto el código como la redacción, para proponer nuevas formas de trabajo que permitan optimizar la presencia del sitio en los buscadores. Aunque hay varias herramientas para hacerlo, desde la revisión manual (mi preferida) hasta la automática, me gusta lo que hacen en SeoWorkers.
  • Revisión de Carga: Consiste en ver la forma en que está dispuesto el código del sitio y la manera en que se carga cuando es solicitado por cada usuario; en el reporte se dan sugerencias acerca de qué cambios llevar a cabo para conseguir una carga más rápida. Las herramientas que ayudan en esta tarea son el complemento Firebug de Firefox y los sitios WebSiteOptimization, que fue creado para acompañar a un libro del mismo nombre, PageSpeed, recién salido de los Labs de Google y WebPageTest, que destaca por la riqueza de sus resultados.
  • Revisión de Redacción y Contenidos: Consiste en hacer una revisión de los contenidos ofrecidos en el sitio web y de la manera en que están escritos, con el objetivo de determinar si son los adecuados para los objetivos que tiene el sitio web y sugerir la creación de los que sean necesarios con ese fin. La forma de hacer esto tiene mucha relación con el análisis de las métricas de visitas del sitio, ya que de allí se puede ver lo más visitado y lo más buscado y establecer las recomendaciones correspondientes.
  • Revisión de Utilidad: Es un trabajo similar al anterior, pero lo que busca es determinar si el sitio cumple con los propósitos que declara, desde el punto de vista del usuario. Es una revisión que se enfoca en estudio de casos y la respuesta que entrega en cuanto a funcionalidades y contenidos.
  • Presencia en redes sociales: Consiste en revisar cómo está siendo referenciada la marca y el sitio web correspondiente, a través de las redes sociales, en particular Twitter y Facebook; lo que se busca no es sólo lo cuantitativo, sino que la evaluación acerca de lo positivo o negativo que se diga en torno a ella.

Cada una de estas revisiones se puede completar en períodos que van desde horas hasta días y dan origen a un reporte escrito en el que se detallan los aciertos y espacios de mejoras existentes, con el fin de generar una lista de tareas que ayude a organizar un proyecto de trabajo.

¿Alguna otra revisión que se quede en el tintero?

Comenzó The Daily, la apuesta de noticias para tocar

En el Museo Guggenheim de Nueva York, fue presentado este miércoles The Daily, un nuevo medio de comunicación, basado en Internet cuyo foco es la multimedia y la interacción basada en un dispositivo del tipo tablet.

Además de publicitar su portada con la foto de los 33 mineros chilenos (ver imagen), me interesó mucho ver la descripción de su lanzamiento a través de la crónica de un blog del The New York Times.

Portada del sitio de "The Daily" que muestra una edición de ese medio en un iPad; en la portada, los mineros chilenos.
Portada del sitio de «The Daily» que muestra una edición de ese medio en un iPad; en la portada, los mineros chilenos.

Allí recogen una frase de Rupert Murdoch, dueño de la empresa que lanza este diario-revista en formato digital para tabletas (para iPad, en realidad, por ahora), que me pareció muy importante. De acuerdo al blog, él plantea que este medio está hecho para una generación que no lee diarios ni ve televisión, sino que consume medios. Añade una cita suya, en la que dice en inglés que dicha generación espera:

“content tailored to their specific interests to be available anytime, anywhere.”

Lo podemos traer al español como “contenido hecho a la medida de intereses específicos, para estar disponible en cualquier lugar y momento”.

Lo interesante de este nuevo medio, es que es el primero que está diseñado pensando desde el inicio en un dispositivo portátil; aunque no he leído mucho acerca de sus características ni tengo el dispositivo para probarlo (nota metal: también debería probar Flipboard), tengo la claridad de que esta característica debería ser central.

Es decir, hacerse cargo de “dónde” se lee, con el objetivo de complementar lo que se está mirando, con la información adecuada para la situación que está viviendo quien lo lee. Es diferente leer sentado y con buena luz, que moviéndose (y el dispositivo se puede dar cuenta al contar con un GPS que así lo indique). Para el primer caso, se pueden ofrecer artículos largos; para el segundo, espacios más interactivos, con menos lecturas y más acción orientada al movimiento con una mano. Porque, recordemos, este medio se “toca” al ser usado, ya que por tratarse de una tablet, no hay mouse. ¿Se les ocurren artículos donde el contenido se pudiera ordenar, moviéndolo? Desde ya, se me ocurren viarias infografías donde este movimiento manual haría mucho sentido.

A todo esto, hay que decir que este medio será construido diariamente de manera especial para sacarle provecho a las características del iPad; que se distribuye por la plataforma de ventas de aplicaciones de Apple y que no es gratis, como casi todos los demás medios de noticias en Internet. Cuesta 99 centavos a la semana y casi 40 dólares al año.

Con todo lo dicho, creo que hoy comenzó algo nuevo, que a lo mejor The Daily no alcanza a interpretar ni catalizar; pero es claro que a partir de él, algo interesante se viene.

Eyetracking revisitado: ¿dónde miras cuando miras?

Un gran avance en la comprensión de qué hacen los usuarios cuando visitan los sitios web, es lo que consiguieron dos investigadoras de la Universidad Pompeu Frabra, de Barcelona, España, a través de un paper publicado en la revista “El Profesional de la Información” que revisa las páginas de resultados de buscadores, mediante el uso de la técnica del eyetracking.

Mari-Carmen Marcos y Cristina González, autoras del paper. Foto de la revista "El Profesional de la Información".
Mari-Carmen Marcos y Cristina González-Caro, autoras del paper. Foto de la revista «El Profesional de la Información».

En el documento, que dejaron a disposición de todo el mundo la semana pasada, Mari-Carmen Marcos y Cristina González-Caro, revisaron la manera en que un grupo de personas cumplían la tarea de mirar las páginas de resultados de dos buscadores, con el objetivo de determinar qué áreas de la pantalla miraban y de esa manera establecer la relevancia de cada espacio.

Como se puede ver en el paper, tomaron una serie de prevenciones metodológicas con el fin de conseguir resultados comparables, lo que hace que el estudio pueda ser evaluado seriamente.

La tarea que emprendieron fue revisar la manera en que se produce la navegación en las páginas de resultados para cuatro tipos de “intenciones“; éstas fueron buscar información, navegar, realizar transacciones y acceder a multimedia. Además revisaron qué pasaba respecto del título (que aparece enlazado), el snippet (la descripción) y el URL ofrecido (la dirección).

Aunque claramente invito a leerlo completo (tiene 11 páginas y está en español), es posible resumir parte de sus conclusiones en lo siguiente:

  • Al existir sólo intención informacional, las personas leen menos el título y se preocupan más de leer el snippet; lo que cambia cuando se busca con intención navegacional, ya que importa más el título y la URL.
  • Los avisos de texto que aparecen en las páginas de resultados se leen más si se busca con intención transaccional y son ignorados cuando la intención es informacional.
  • Al buscar con intención multimedia, las imágenes son lo más visto.
  • Los avisos de texto que más se miran, son los de la zona superior en desmedro de los que aparecen al costado de los resultados.
  • Otro elemento que se desprende de las imágenes que acompañan al estudio, es que los usuarios ven sólo los primeros resultados de las páginas y los demás son ignorados. Buen argumento a favor del SEO.
  • Por último las autoras aconsejan: “los autores de páginas web deben tener en cuenta la información que ofrecen en la etiqueta meta “description”, ya que los buscadores Google y Yahoo! toman el snippet de ella si detectan que los términos de búsqueda aparecen ahí”.

Por último, si les interesa este tema, los dejo invitados a leer otros artículos de “eyetracking” publicados antes en este blog.

Un caso práctico de optimización para buscadores

Como algunos de mis lectores saben, parte de mis actividades habituales incluyen hacer clases. En la última sesión de mi curso de Redacción para el web en el Diplomado de Periodismo Digital de la U. de Chile, nos dedicamos al tema del posicionamiento en buscadores también conocido por la sigla SEO (Search Engine Optimization).
Para entenderlo, nada mejor que un caso práctico y por ello tuve como invitado a un ex-alumno del diplomado: Daniel Iturriaga.
El presentó el caso de la empresa Props Chile, que se dedica a la comercialización de artículos para yoga, en la que tras una modificación de elementos básicos, consiguió aparecer en la primera página de resultados en Google para varios de sus productos.
Daniel explicó que esto llevó a que las ventas también fueran impactadas positivamente, ya que muchas personas comenzaron a llegar a la empresa gracias a que la encontraban vía el buscador.
En este enlace está la presentación que hizo en la clase; es muy didáctica ya que explica exactamente qué hizo y en cuánto tiempo consiguió los resultados.

¿Cómo se le gana a Google?

El buscador Cuil.com
El buscador Cuil.com.

Durante todo el día he estado leyendo posts relativos al nuevo buscador llamado “Cuil” que fue presentado hoy, nada más y nada menos como una alternativa naciente al gigante Google. Como antecedente que le da credibilidad a su pretensión está el hecho de que cuenta entre sus ingenieros, a un grupo de ex-googlers que habían desempeñado cargos de relevancia en esa empresa, ligados a la búsqueda.
Sin embargo, las primeras evaluaciones no han sido buenas ya que la verdad sea dicha, en la búsqueda no es tan rápido y en los resultados no es tan preciso. Tanto en inglés como en castellano, lo que se ha dicho es poco grato para el recién llegado.
En mi caso, de tanto en tanto, pruebo nuevos buscadores y ya en el pasado me cambié de Yahoo a Altavista y desde allí a Google, por ejemplo. Por lo mismo, me declaro dispuesto a seguir moviéndome de buscador si encontrara uno mejor. Pero aún no es el caso, porque creo que no se han cumplido las condiciones mínimas, que son las siguientes:

  • Que en la búsqueda aparezca el contexto, para que sea fácil elegir el área en la que me interesa buscar. Esto ya lo había dicho en un post previo y siento que la web semántica ayudará a conseguirlo.
  • Que el nuevo buscador sea tan rápido y ofrezca tantos resultados como los que Google entrega, incorporando tantas fuentes (blogs y otros sitios sociales) como sea posible.
  • Que esté tan diseminado como Google; dado que ese buscador está, por ejemplo, en mi browser, ya ni siquiera tengo que ir a su sitio para usarlo. El se aparece en los lugares en los que yo estoy usando la aplicación.

Estos son tres razones. De seguro, hay más y el propio Google ha dado pruebas de que está buscando la forma de atenderlas para evitar que yo -y millones similares- nos cambiemos de buscador.

La experiencia es la clave de Cooperativa.cl

Durante gran parte de los meses pasados tuve el privilegio de ser asesor del sitio Cooperativa.cl, terminando mis labores pocas semanas antes de que saliera al aire su remozado sitio web, el pasado martes.
Por lo mismo, me siento parte de lo que muestra dicho espacio, ya que contribuí en parte a las ideas que lo nutren, aunque fue el equipo de Oscar Pastén y Manuel Contreras (en la foto), apoyado por Alfredo Luco y Altavoz, quienes finalmente lo llevaron a cabo.
Desde mi perspectiva, lo que se persiguió con mayor ahìnco fue la experiencia del usuario, es decir, lo que que le ocurre a una persona que visita el sitio web. Partiendo de la base que “cualquier página es la portada” gracias a su buena indexación en los buscadores, lo que se buscó es que junto con tener un contexto adecuado de dónde había llegado, el usuario que visitaba cada página tuviera muchas acciones a realizar.
Para empezar, una lectura directa del contenido; contenidos relacionados a la nota; contenidos adicionales de la misma sección más audio y video para escuchar, ver y llevar. En esto último hubo mucho énfasis y hoy es posible que el audio de la radio pueda ser empleado en cualquier sitio, con controles como el que se muestra abajo de este texto, con una nota acerca del uso de las bicicletas en Santiago.

Vale decir, se enfatizó en la navegación vertical -ver el contenido de la nota-, y se mejoró más la navegación horizontal, que es pasar de la nota actual a otras de interés similar.
Adicionalmente el cambio permitió modificar algunas cosas respecto del sitio anterior (en la imagen inferior), en el cual también colaboré en tareas similares a las de esta ocasión, tales como la eliminación de los “frames”, el término de las tablas para diagramar, la incorporación masiva de RSS, las mejoras en el empleo de taxonomías y las mejoras en la navegación contextual.

La portada anterior (izquierda) y la actual (derecha) del sitio web
La portada anterior (izquierda) y la actual (derecha) del sitio web.

Aunque claramente soy parte interesada, tengo la sensación de que el sitio avanzó mucho y puso la vara alta en la competencia por el mejor sitio entre los medios de comunicación en Chile. Claramente soy parte interesada al decirlo, pero qué le vamos a hacer, lo pasé muy bien dando ideas y viendo cómo ellas salían adelante.
Así que mis felicitaciones a los chefs y a todos los usuarios del sitio, les deseo la mejor de las experiencias en sus páginas.
Una nota al final: allá en Cooperativa.cl también tengo un blog, gentileza de Oscar y Manuel.

Lección del NYT: no confundir el medio con su distribución

Una interesante lección de periodismo e innovación dio esta mañana el editor de multimedia de The New York Times, Andrew DeVigal, durante una charla dictada en la U. de los Andes. Su presentación fue el plato fuerte del seminario “La encrucijada de los medios” organizada con motivo de los 15 años de la Facultad de Comunicación de esa casa de estudios.
DeVigal trabaja en ese puesto desde octubre de 2006 y en su charla utilizó múltiples ejemplos de ese sitio, para ilustrar la forma en que la multimedia está permitiendo contar mejores historias a los periodistas. Por ejemplo, en la visita a la fábrica de guitarras destacó el uso del audio de ambiente para crear la sensación de estar dentro de ese ambiente; en el reportaje del museo, destacó los controles sobre la imagen para que los usuarios guiaran la navegación; mostró también las herramientas para analizar el debate demócrata de febrero pasado, con video y la transcripción de lo dicho por Hillary y Obama, y destacó finalmente el especial con las bajas en Irak (en la foto), donde se emplea una base de datos para acceder a gran cantidad de información, de manera simple.

Andrew De Vigal mostrando el ejemplo de las bajas de guerra en Irak
Andrew De Vigal mostrando el ejemplo de las bajas de guerra en Irak.

Desde su perspectiva, los periodistas tienen que verse a sí mismos como contadores de historias, y por lo tanto deben aprovechar las nuevas tecnologías para hacer más fácilmente esa tarea.
Otra enseñanza que aprovechó de entregar fue que los periodistas deben trabajar pensando en la historia que cuentan, sin pensar en el medio en que trabajan, puesto que no deben confundir el medio con la forma en que éste se distribuye.
Finalmente, algo para tener en cuenta fue el número de periodistas del NYT: 1.200; de ellos, 60 trabajan directo en los textos del sitio web; otros 20, en video e incluso, hay un grupo dedicado a investigar nuevos desarrollos cuya tarea consiste en hacer prototipos que implementen nuevas tecnologías. La tarea actual, no obstante, es la integración con el resto del diario, para que siempre se trabaje por ofrecer mejor información.
Tras su presentación hubo un debate con editores de Emol y La Tercera (al que no me pude quedar, lamentablemente), cuyas intervenciones se pueden ver en la nota de prensa publicada por la Universidad.
Aprovecho de felicitar a la facultad, porque fue una grata experiencia conocer a DeVigal y tener la oportunidad de escuchar en vivo y en directo de su trabajo.

SMX Chile: cara a cara con los buscadores

Una oportunidad interesante fue la de participar en el seminario SMX que se desarrolló en Santiago el jueves y viernes pasado, ya que permitió tener una aproximación ordenada y sistemática al mundo de los buscadores, abarcando desde lo académico hasta lo comercial.
El hecho de que se dividiera en dos días, dejó en algunos momentos la sensación de que el exponente que estaba sobre la escena estaba en realidad “rellenando” un espacio que no había sido cubierto de otra manera. De hecho, hubo algunas discusiones que se habrían resuelto antes de partir incluso, si hubiera habido un poco más de conocimiento del expositor. Pero, hay que decirlo, ésas fueron las excepciones.
De las presentaciones imperdibles, habría que citar las siguientes:

  • Ricardo Baeza-Yates de Yahoo! Research y el CIW abordó el spam de los buscadores, vale decir la situación en que un sitio web que tiene como propósito exclusivo vender un producto, se “disfraza” con un contenido que no posee, sólo para aparecer en la primera página de los resultados de búsqueda. Su planteamiento fue que “cualquier punto que ganen los spammers es una pérdida de precisión del buscador”. Y, aunque no dio a conocer la forma en que lo hacen, explicó que los buscadores se las ingenian para desarrollar sistemas automáticos y manuales para evitar este problema. Actualmente se calcula que el 2% del contenido de la web es spam y por eso la preocupación por atacarlo.
  • Paul Saffery, de Silverdisc presentó formalmente el trabajo que realiza una empresa que se dedica a instalar publicidad contextual en buscadores, como la de AdWords de Google. Trabaja en Chile para clientes europeos, principalmente, ya que el mercado local sigue siendo mínimo -y barato, según afirmó. En ese sentido explicó que un país con palabras “caras” es un país que ya ha avanzado bastante en el uso de Internet, por lo que se espera que avancemos hacia allá. Entre los temas interesantes, explicó que en Estados Unidos ya se hace publicidad georeferenciada, es decir, que tomando el número IP del cliente que hace una búsqueda, se le muestran avisos de la zona en la que se conecta. En Chile, por la forma de distribuir dichos números, aún no es posible. También dio el consejo de junto con hacer campañas publicitarias vía avisos contextuales de texto en buscadores, preocuparse de tener páginas de llegada (landing pages) de quienes hacen clicks: “la promoción es de páginas, no de sitios”, dijo.
  • David Boronat de Multiplica abordó una temática similar, partiendo por una declaración categórica: “No puede ser que en Chile la gente no esté comprando palabras”. Gran parte de su exposición tuvo que ver con el uso de herramientas para ver el desempeño de los sitios web en lo que a búsquedas se refiere; destacó en este sentido la potencia que representa contar con Google Analytics. Por ejemplo, preguntó “¿Cuántas páginas de resultados de búsqueda en mi sitio, tienen cero resultados?” Explicó que saber ese tipo de información revela que hay personas que creen que tenemos algo, pero que al ir a buscarlo, no lo encuentran. Ese es entonces el momento para tomar acciones que ayuden a corregirlo.
  • Paulo Saavedra del Pryme del Gobierno relató todo el trabajo que se ha hecho con el portal TramiteFacil.cl para apoyar las capacidades de búsqueda de las personas. Por ejemplo, si alguien busca por “carné de identidad”, “carnet de identidad” o incluso “carnese de identidad”, el primer resultado es la página para Obtener y Renovar la Cédula de Identidad. En este sentido declaro que “usar el lenguaje ciudadano” era una de las metas de ese portal. Por lo mismo, cada semana revisan las palabras ingresadas por las prsonas para buscar, lo que ayuda a mejorar el sitio.
  • Jim Ballentine, de Google Chile explicó todo lo que uno quería saber sobre el buscador, y un poco más. Por ejemplo, me llamó la atención lo que dijo acerca de que dos personas sentadas al lado en computadores conectados a la misma red, pueden obtener resultados diferentes cuando buscan las mismas palabras ya que uno de los elementos que se toman en cuenta para ordenar las páginas de resultados, es la historia de navegación que se ha hecho durante una sesión. “Ser número uno en Google es cada vez más dinámico porque el resultado depende del usuario y lo que está haciendo”, explicó. Es decir, para hacer esa lista se toma en cuenta qué se busca, quién lo busca, qué ha estado haciendo en las búsquedas previas y desde dónde lo solicita. ¿Sirve entonces el SEO? Jim dice que sí, que es lo que lleva a una página a que Google la tome en cuenta y esté en la primera página.
  • Panel: la jornada terminó con una mesa que tuvo a varios de los expositores respondiendo preguntas, ocasión en que varios eventuales clientes aprovecharon de hacer consultas relativas a campañas, precios, formas de trabajo y otros similares. Y que sirvió además para demostrar que las agencias que ponen campañas de avisos de texto y los buscadores -en este caso Google- realmente se quieren: no se hicieron daño. Hasta ellos se rieron del punto. Permite además, demostrar lo nueva que es esta industria y las muchas oportunidades que existen para entrar ahora en ella.