Archivo de la etiqueta: SEO

Temas relacionados con optimización de buscadores (SEO).

¿Cómo se mide la calidad de un sitio web?

Cuando escribí mi libro sobre los 100 Elementos que debe tener un sitio web (2018), me obsesioné con buscar métodos y herramientas para medir diferentes aspectos de un sitio web con el fin de mejorar su desempeño en diferentes aspectos.

Si hubiera tenido a la mano el paper que publicó ayer Alejandro Morales (que va en camino a ser Doctor en Comunicaciones) en España, todo habría sido tan diferente y simple.

Con el título de «Calidad web en medios digitales: revisión bibliográfica sobre métodos e indicadores de evaluación general y atributos de confianza» hace una revisión por todos los autores relevantes del tema y enumera todas las dimensiones en las que se puede hacer la revisión, incluyendo una serie de indicadores a tener en cuenta. Gran trabajo que ya está disponible.

La imagen muestra un gráfico con una lista de los indicadores de calidad más citados en las publicaciones revisadas.
Lista de los indicadores con más citas en las publicaciones revisadas.

Google premia la experiencia del usuario

Esto está pasando mientras escribo así que hay que dejar un tiempo para ver las consecuencias. Se trata de los cambios que está haciendo Google para premiar/castigar a los sitios web que ofrecen una mejor/peor experiencia a los usuarios. El premio es que apareces más arriba en la página de resultados, respecto de los demás sitios que califican para esa búsqueda. En esta imagen se ve lo que están mirando:

La imagen muestra las diferentes señales que Google acumula de los sitios que indexa para ver su lugar en la página de resultados.
Las diferentes señales que Google acumula de los sitios que indexa para ver su lugar en la página de resultados.

¿Qué se mide? Según lo que anuncia Google en los dos posts que ha publicado del tema aquí y acá se incluye:

  • La velocidad de carga del grupo de contenidos más extenso o LCP, del que se informa: «Para brindar una buena experiencia de usuario, los sitios deben esforzarse por tener Largest Contentful Paint de 2.5 segundos o menos. Para asegurarse de que está alcanzando este objetivo para la mayoría de sus usuarios, un buen umbral para medir es el percentil 75 para cargar páginas, que se segmenta entre dispositivos móviles y equipos de escritorio».
  • La velocidad de interacción o FID «mide el tiempo desde que un usuario interactúa por primera vez con una página (es decir, cuando hace clic en un enlace, pulsa un botón o utiliza un control personalizado impulsado por JavaScript) hasta el momento en que el navegador puede comenzar a procesar controladores de eventos como respuesta a esa interacción». Google pretende que «los sitios deben esforzarse por tener una First Input Delay de 100 milisegundos o menos».
  • El Cambio Acumulativo del diseño o CLS ayuda a cuantificar la frecuencia con la que los usuarios experimentan cambios de diseño inesperados y lo explican así: «¿Alguna vez ha leído un artículo en línea cuando algo cambia repentinamente en la página? Sin previo aviso, el texto se mueve y perdiste tu lugar. O incluso peor: estás a punto de pulsar un enlace o un botón, pero en el instante antes de que aterrice su dedo, BOOM, ¡el enlace se mueve y termina haciendo clic en algo más! La mayoría de las veces, este tipo de experiencias son simplemente molestas, pero en algunos casos, pueden causar un daño real». Añaden que se produce un cambio de diseño cada vez que un elemento visible cambia su posición de un fotograma renderizado al siguiente y se espera que los sitios tengan una puntuación CLS de 0.1 o menos.
  • Que esté disponible para celulares o Mobile friendly.
  • Que sea un sitio seguro (con https)
  • Que no se muestren objetos que afecten la vista de la página (como los popups que uno cierra antes de ver de qué se tratan).

A cada uno de estos aspectos en Google les llaman «señales» y sirven para alimentar su algoritmo de posicionamiento. Así que a esperar y ver qué ocurre. Ya estamos avisados.

Arquitectura de información de verano

Aprovecho de dejar por acá registrado el evento que llevó a cabo el pasado viernes 20 de febrero acá en Santiago, con motivo de la celebración del Día Mundial de la Arquitectura de información, que como ya saben, forma parte de las cosas que hacemos.

El tuit que muestra el evento, con Javier Velasco a la cabeza.
El tuit que muestra el evento, con Javier Velasco a la cabeza.

Se trató de un evento simple y rápido, desarrollado en las instalaciones de la Corfo, en el que hablamos por un rato de AI. En el primer track estuvo Javier Velasco (@mantruc), el organizador, con Gustavo Soto (@gusoto) conversando conmigo acerca de los desafíos de aprender esta disciplina, dónde hacerlo, dónde especializarse y finalmente, cómo lograr subir a los clientes al carro. Desde París, donde andaba de paseo gracias a que está en Londres estudiando, Gustavo planteó la importancia de estar al día y especializarse, aunque indicó que el punto de partida de todo debe ser siempre entender al usuario y adquirir destrezas para hacerlo. Mientras, en Santiago, Javier comentó las vicisitudes de doctorararse (él tiene un Phd) y destacó que si es por conseguir trabajo, es mejor hacer un par de maestrías en lugar de emprender el largo camino de la investigación pura.

Luego apareció en escena Marius Ursache (@MariusUrsache) quien habló de la importancia de que los diseñadores escriban y sepan expresar lo que quieren decir. Aunque partió de esa manera, su presentación se dirigió a expandir la mente y avanzar en áreas que uno normalmente no domina. Si diseñas, escribe; si escribes, comienza a hacer bocetos y así en adelante, fue su consejo. Marius, quien es médico de profesión y desarrollador de proyectos digitales por gusto, está en Chile por el programa Startup Chile y fue muy interesante conocerlo y escuchar sus palabras, que se agradecen.

La jornada terminó con Javier explicando un proyecto muy complejo que utiliza la AI para resolver problemas. Pero, para comentarlo, pidió que nadie hablara de su contenido, así que nos limitamos a comentar que estuvo bueno. Otra razón más para estar atentos y participar en eventos de este tipo, ya que esperamos que en el año haya varios.

Saludos a todos los que me leen, les deseo un buen año y comenzamos de nuevo a darle vida al Usando.info.

Arquitectura de Información, versión 2014

Esta pregunta la he respondido muchas veces desde hace un tiempo y habitualmente doy algunas charla para seguir contestándola, como en el caso de la presentación que se muestra en este post, que ofrecí a los integrantes del departamento de marketing de una empresa en estos días.

Como esta vez no eran especialistas, sino personas que trabajaban en el área comercial, la idea era ofrecer datos referidos a cómo una disciplina de este tipo podía ayudar a la efectividad en la transmisión de sus mensajes.

Por ello me enfoqué a mostrarles técnicas para verificar el uso de un espacio digital luego que éste ha sido presentado y luego, a explicar algunas técnicas para conseguirlo, incluyendo entre otras, pruebas con usuarios, diseño de experiencia y prototipado rápido de soluciones.

Aunque no tiene el audio, pueden hacerse alguna idea de lo que conversamos, viendo la presentación:

Arquitectura de Información y Diseño de Experiencia del Usuario from Juan C. Camus

La última charla del año

Para cerrar el año 2013 tuve la oportunidad de dictar hace unos días una charla ante los encargados de los sitios web de la Dibam, quienes realizan su encuentro anual en Santiago.

La petición fue abordar el tema de cómo generar contenidos que realmente le saquen provecho a las plataformas digitales para contar historias, orientado a un grupo diverso que es el que se encarga de atender los sitios web de lugares tan diferentes como los grandes museos del país hasta centros de investigación y estudio.

Mi propuesta la pueden ver en la presentación que está más abajo, en la que planteo cuáles son (a mi juicio), las cinco partes claves de la experiencia online: contenidos, funcionalidades, distribución, socialización y experiencia. Desde mi punto de vista, trabajar en estas áreas es lo que ayuda a transformar a los visitantes de sitios virtuales, en participantes físicos de la experiencia de visitar y participar en los espacios de bibliotecas y museos del país.

Cinco maneras de transformar visitantes en participantes from Juan C. Camus

Las “tablets” se toman el diseño web

Siguiendo con mi tema anterior de las interfaces, quería comentar que una tendencia que se ha estado observando en el último año ha sido la conversión de los sitios web hacia versiones “tablet”.

No ha sido abrupto, porque todavía cuesta encontrar ejemplos, pero es claro que la conversión se está produciendo. De hecho hace algunos días, en un post anterior, abordaba la falta de la barra de scroll en Gmail, que es un síntoma relacionado.

¿En qué se nota? Es una sutileza, pero se distingue por el hecho de que el tamaño de los botones y los espacios de interacción (secciones, menúes, enlaces) es más ancho. Vale decir, están preparados para ser usados no con un mouse, sino que con los dedos de la mano.

En las siguientes imágenes, dos ejemplos de esta forma de presentar los contenidos: Etsy.com y Atlason.com. Por cierto, en un tablet, se ven y se “usan” sin problemas.

Interfaz de Etsy.com, el sitio de manualidades a la venta
Interfaz de Etsy.com, el sitio de manualidades a la venta.
El sitio de la empresa de diseño Atlason.com; todo a tamaño de dedo.
El sitio de la empresa de diseño Atlason.com; todo a tamaño de dedo

Pero aún hay más

Como expliqué un par de veces esta semana en clases, las tablets y los móviles en general, están generando un campo mayor de influencia. Así por ejemplo, ahora hay más gestos y palabras que incorporar en las acciones de los ususarios. El mejor ejemplo, es que el verbo “click” que tanto hemos usado estos años para describir el proceso de gatillar una acción con el mouse, ya no tiene mayor sentido. Eso ahora se llama “tap” que se puede traducir como tocar o pulsar algo.

Por último, hay quienes están aprovechando todo lo anterior, para hacer cosas totalmente diferentes. Es el caso por ejemplo de la consultora Cooper, dedicada al diseño de experiencia de usuarios, quienes han extremando lo que se puede hacer.

Si se entra a su sitio (y recomiendo hacerlo), se puede ver que es una “gran página” que tiene todos los contenidos en un mismo archivo. La gracia es que todos ellos tienen el tamaño “tablet”, haciendo de la navegación algo muy interesante.

Página principal de Cooper.com
Página principal de Cooper.com
Mirada general a todas las partes de la "gran página" que se navega en Cooper.com
Mirada general a todas las partes de la “gran página” que se navega en Cooper.com

Queda por último decir que gran parte de lo que se puede hacer en estos días en torno a este tema, está relacionado con el concepto de diseño web adaptativo (mi traducción de Web Responsive Design), término acuñado por Ethan Marcotte en un artículo (ver en español) escrito hace dos años y medio y que fue seguido por su libro el año pasado (US$ 9 como e-book).

Entender este concepto, ayuda mucho para trabajar en todo esta tendencia tablet que estamos mirando.

Google ya lo dijo: se viene la semántica

No es muy público ni ha llegado a los grandes titulares, pero para quienes trabajamos en contenidos digitales es una de las noticias importantes: Google apostó por lo semántico.

La nota en la que se anunció formalmente apareció en The Wall Street Journal hace un mes, incluyendo las declaraciones de Amit Singhal, uno de los científicos de Google dedicados a la búsqueda.

Allí plantea que se vienen años diferentes para su propio buscador, ya que además de mostrar resultados tal como lo hace ahora, debe establecer relaciones entre las páginas que se destacan, hasta llegar a un momento en que responda tal como una persona. Es decir, y tal como se plantea en esa nota de prensa:

Para una pregunta compleja tal como “¿cuáles son los 10 lagos más grandes de California?” Google podría entregar una respuesta en lugar de sólo mostrar enlaces hacia otros sitios.

Esto significa varias cosas, entre las cuales aparece la idea de que hay una máquina que entiende el significado los contenidos, más allá de que sólo se da cuenta de las palabras que ellos incluyen, como es en la actualidad. De allí que a esto se le llame “semántico”.

Como la publicación en WSJ es un anuncio concreto de lo que viene, ya hay muchos que se están preparando, ya que si bien es algo que va a tomar tiempo para que se concrete, es claro que Google (y los demás buscadores) seguirán indexando sitios y que, cada vez, buscarán más datos. Ya no sólo los que se muestran en el sitio, sino también los metadatos, que son aquellos que dan contexto a la información que se ofrece.

Entonces, si uno se dedica a crear contenidos digitales, cuáles son las tareas que aparecen y de qué nuevas hay que preocuparse? Acá enumeramos algunas:

  • Fin al SEO como lo conocemos: ya no serán tan relevantes las estrategias de mejoras de páginas tradicionales para subir en los buscadores, ya que éstos se fijarán en el contenido, más que en la forma. Habrá que darle más énfasis al contenido.
  • Contenido de calidad: lo que se buscará a futuro es contenido que efectivamente dé respuestas a lo que la gente busca. Por ello, habrá que tener un foco más puesto en la calidad que en la cantidad, ya que éso andarán buscando los robots que indexan.
  • Google’s Knowledge Graph: esta es una base de relaciones entre elementos que Google adquirió junto con la empresa Freebase y se asume que será la base desde la cual, a partir de ahora, establecerá cuáles son los sitios mejor relacionados, para determinados contenidos. Entender cómo opera, ayudará a saber lo que viene.
  • Aprender de web semántica: una forma de hacerlo, es mirar las presentaciones que ha hecho Claudio Gutiérrez, profesor de la U. de Chile y uno de los más avanzados en el tema en el país. Asimismo, leer los posts de Álvaro Graves, en los que explica qué hacer con linked data.

El Panda de Google y por qué debería importarme

Desde febrero pasado en inglés y desde ayer en español y otros idiomas, el buscador Google está usando una nueva versión de su sistema de búsquedas (llamado Panda) para decidir qué sitios aparecen primero en las páginas de resultados del buscador.

El algoritmo se trata de algo bastante complejo y oculto, puesto que ellos mismos dicen en su blog que “no vamos a desvelar los auténticos indicadores que usamos para la clasificación en nuestros algoritmos porque no queremos que nadie juegue con los resultados de las búsquedas”.

Sin embargo, tras leer varias decenas de artículos y blogs, se podría decir que es un movimiento para aumentar la calidad de los resultados de las búsquedas, intentando eliminar a los sitios que le copian contenidos a otros y que sólo sirven como espacios para vender enlaces, que en la versión previa del algoritmo de Google, servían para hacer que un sitio subiera en la página de resultados. Es decir, mientras más enlaces recibía un sitio, mejor ubicado quedaba.

Se espera que con Panda esto termine y de hecho, en su post inicial, la compañía indicaba que esto afectaría a un 11,8% de las búsquedas y a juzgar por las reacciones que ha habido en el mercado (aquí se ven ejemplos: 1, 2 y 3), su implementación podría cambiar la forma de posicionar sitios en buscadores (lo que se conoce como SEO) por algún tiempo.

Por lo anterior, ¿qué es lo que hay que hacer ahora?

En Google dicen apostar por el contenido y por ello publican una serie de 23 preguntas, cuya respuesta (positiva en unos casos y negativa en otros), debe ayudar a los creadores de contenidos a darse cuenta de cuáles son los pasos a seguir.

Para efectos de revisarlas, ya que además permiten hacer una interesante prueba heurística acerca de la calidad del contenido de un sitio web, las dejo a su disposición para ponerlas en práctica:

  • ¿Confías en la información presentada en este artículo?
  • ¿Este artículo ha sido escrito por un experto, por una persona entusiasta que conoce bien el tema, o es más bien superficial?
  • ¿Contiene el sitio artículos duplicados, solapados o redundantes sobre el mismo tema o temas parecidos que contengan ligeras variaciones de palabras clave?
  • ¿Te sentirías a gusto si tuvieses que dar los datos de tu tarjeta de crédito en este sitio?
  • ¿Contiene este artículo errores de ortografía, estilísticos o de facto?
  • ¿Están los temas impulsados genuinamente por el interés de los lectores del sitio, o el sitio genera contenido en un intento por adivinar con qué se podría lograr una buena clasificación en los motores de búsqueda?
  • ¿Proporciona el sitio contenido o información original, informes originales, investigación original o análisis originales?
  • ¿Proporciona la página un valor sustancial en comparación con otras páginas que aparecen en los resultados de las búsquedas?
  • ¿Cuánto control de calidad se realiza sobre el contenido?
  • ¿Describe el artículo las dos caras de cada historia?
  • ¿Es el sitio una autoridad reconocida en el tema?
  • ¿Está el contenido generado en masa por un gran número de redactores o repartido en una amplia red de sitios, de modo que cada página o sitio individual no reciben demasiada atención ni cuidados?
  • ¿Está el artículo bien editado o parece producido de forma descuidada o con prisas?
  • ¿Para realizar una consulta sobre salud, confiarías en la información de este sitio?
  • ¿Reconocerías este sitio como fuente autorizada al mencionar su nombre?
  • ¿Proporciona este artículo una descripción completa y detallada del tema?
  • ¿Contiene este artículo un análisis detallado o información relevante más allá de lo obvio?
  • ¿Se trata del tipo de página que desearías guardar en tus marcadores, compartir con un amigo o recomendar a alguien?
  • ¿Contiene este artículo una cantidad excesiva de anuncios que distraigan o interfieran con el contenido principal?
  • ¿Esperarías ver este artículo impreso en una revista, una enciclopedia o un libro?
  • ¿Son los artículos cortos, insustanciales o carecen de algún otro modo de detalles específicos útiles?
  • ¿Están las páginas editadas con mucho cuidado y atención por el detalle o con poca atención?
  • ¿Se quejarán los usuarios al ver páginas del sitio?

¿Por qué hay que seguir a Matt Cutts?

Cada vez que les comento a mis alumnos cuáles son mis fuentes para estar al día en temas relativos a buscadores, sale su nombre. Y reafirmo que, pese a su importancia, es casi desconocido.

Así que quiero dedicarle un par de líneas a Matt Cutts, un ingeniero que trabaja en Google desde el 2000 y que tras participar en el equipo de calidad de búsqueda, hoy se dedica al tema del webspam.

Sigo su blog desde hace algunos años y la gracia de hacerlo, es que él es uno de los pocos empleados de Google (que yo conozco), que habla de su trabajo y cómo éste evoluciona. En la época previa a la aparición del blog para webmasters de Google, era casi la única fuente que encontré para entender qué pasaba en esa área y cómo evolucionaba ese negocio.

Ahora hay muchas más formas de llegar a esa información e incluso en el blog, usan mucho a Matt en formato de video, para responder las preguntas que llegan acerca de cómo va evolucionando esa área. Así que es más fácil de seguir y más simple para aprender.

Por ejemplo, en el siguiente video, explica que Google está usando las redes sociales para definir la posición de un sitio en su posicionamiento en las páginas de resultados del buscador. Esto era algo que la comunidad dedicada al SEO asumía que existía, pero no había sido confirmado hasta que se dio a conocer su respuesta. Lo cual, por cierto, valida su aporte.

Termino este post con algunos enlaces, para seguir a Matt:

¿Qué se le puede revisar a un sitio web?

Siempre existe la posibilidad de mejora continua (ver kaizen) en el desarrollo de sitios web, ya sea porque los apuros por terminar su desarrollo a tiempo, dejaron ciertos aspectos mal terminados o porque algunas áreas deben ser adecuadas de mejor manera a los cambios que va experimentando la audiencia que se debe atender, o bien en los objetivos que se quiere lograr con la presencia digital.

Para avanzar en este proceso, lo mejor es ir incorporando en el trabajo habitual de la mantención de los sitios, algunas evaluaciones que pueden ayudar en el proceso.

A raíz de la conversación que tengo en estos días con un desarrollador de sitios web que me pide evaluar un sitio en el que trabaja, hice la siguiente lista de las evaluaciones que se pueden aplicar, pensando en mejora continua.

  • Revisión de Usabilidad: Consiste en desarrollar un test heurístico que dé a conocer los problemas principales, como también las mayores fortalezas del sitio, gracias a una revisión completa de sus contenidos y funcionalidades. Normalmente este reporte genera una lista de tareas para hacer mejoras y cambios. En la Guía Web se puede bajar un documento con las preguntas más habituales para realizar esta tarea.
  • Revisión de Accesibilidad: Consiste en revisar los estándares utilizados en el sitio web, para determinar sus capacidades para ser utilizados por personas con discapacidades y hacer sugerencias de mejoras. A través de la aplicación Hera, se puede hacer la revisión automática de este test.
  • Revisión para SEO: Consiste en revisar tanto el código como la redacción, para proponer nuevas formas de trabajo que permitan optimizar la presencia del sitio en los buscadores. Aunque hay varias herramientas para hacerlo, desde la revisión manual (mi preferida) hasta la automática, me gusta lo que hacen en SeoWorkers.
  • Revisión de Carga: Consiste en ver la forma en que está dispuesto el código del sitio y la manera en que se carga cuando es solicitado por cada usuario; en el reporte se dan sugerencias acerca de qué cambios llevar a cabo para conseguir una carga más rápida. Las herramientas que ayudan en esta tarea son el complemento Firebug de Firefox y los sitios WebSiteOptimization, que fue creado para acompañar a un libro del mismo nombre, PageSpeed, recién salido de los Labs de Google y WebPageTest, que destaca por la riqueza de sus resultados.
  • Revisión de Redacción y Contenidos: Consiste en hacer una revisión de los contenidos ofrecidos en el sitio web y de la manera en que están escritos, con el objetivo de determinar si son los adecuados para los objetivos que tiene el sitio web y sugerir la creación de los que sean necesarios con ese fin. La forma de hacer esto tiene mucha relación con el análisis de las métricas de visitas del sitio, ya que de allí se puede ver lo más visitado y lo más buscado y establecer las recomendaciones correspondientes.
  • Revisión de Utilidad: Es un trabajo similar al anterior, pero lo que busca es determinar si el sitio cumple con los propósitos que declara, desde el punto de vista del usuario. Es una revisión que se enfoca en estudio de casos y la respuesta que entrega en cuanto a funcionalidades y contenidos.
  • Presencia en redes sociales: Consiste en revisar cómo está siendo referenciada la marca y el sitio web correspondiente, a través de las redes sociales, en particular Twitter y Facebook; lo que se busca no es sólo lo cuantitativo, sino que la evaluación acerca de lo positivo o negativo que se diga en torno a ella.

Cada una de estas revisiones se puede completar en períodos que van desde horas hasta días y dan origen a un reporte escrito en el que se detallan los aciertos y espacios de mejoras existentes, con el fin de generar una lista de tareas que ayude a organizar un proyecto de trabajo.

¿Alguna otra revisión que se quede en el tintero?