Cómo mejorar Crawlabilidad e Indexabilidad en Drupal
Un problema común, en referencia al SEO, es que la mayoría de las webs tiene la existencia de paginaciones.
En este artículo se van a facilitar una serie de implementaciones para generar una Vista RSS a través del gestor de contenidos Drupal y así poder generar un acceso a los bots a todas las URL's que queramos que sean indexadas y por las que queramos posicionar.
El objetivo es facilitar a estos la detección y acceso a todos los contenidos y que se reduzcan los recursos de computación al mínimo, para que puedan crawlear la web más facilmente.Con esta optimización lo que se consigue es proveer una puerta de entrada para que los crawlers puedan rastrear y encontrar toda la información de una web en Drupal de una forma mucho más fácil de encontrar y procesar.
El conjunto de pasos a seguir para poder hacer la implementación son los siguientes:
- Identificar el/los Tipos de Contenidos sobre los que se van a generar los listados de URL's
- Generar una Vista RSS para cada Tipo de Contenido
- Procesar "Fetch as Google" o Explorar como Google en Search Console
Vamos a ir comentando paso a paso como implementar cada proceso.
En el ejemplo que nos ocupa, el nombre del Tipo de Contenido es "Artículo", en tu sitio web puede ser Noticia, Post, etc. Se tienen que identificar todos los contenidos para los que se quiera implementar esta mejora.
Una vez se ha seleccionado el listado de información que se quiera mostrar, se implementa un Vista RSS en el CMS, para ello hay que seguir los siguientes procedimientos:
Paso a seguir
- Crear nueva Vista
- Seleccionar el nombre de la vista
- Seleccionar el Tipo de contenido, en este caso Artículo
- Ordernar el listado de más reciente a más lejano en el tiempo
- Asegurate que la vista la creas como una página y no como un bloque
- El formato de la lista "unformatted list"
- Mostrar el formato título para que aparezca en cada enlace el título de cada artículo
- Elementos a mostrar, seleccionar 0, por defecto mostrará todos los registros
- No seleccionar paginador
- Seleccionar incluir RSS feed
En el menú superior del CMS desplazate a la ruta Structure -> Views (Estructura -> Vistas) y hacer click en Add new view ( Añadir nueva Vista)
Puedes ver un ejemplo aquí: Listado de ártículos en Drupal mediante una Vista RSS.
Una vez se haya generado la página con el listado de contenidos, para acelerar el proceso de rastreo, mediante la herramienta Search Console ejecutamos "Explorar como Google". Debido a que no es una página de interés para el usuario y posiblemente no se incluya un enlace a la misma en ninguna sección de la web, la alternativa para que los crawlers puedan procesar esta URL más rápidamente es mediante esta opción.
Optimización SEO Drupal 7
- Se proveen todas las URLs del sitio web segmentadas por Tipo de Contenido
- Se facilita una alternativa a la paginación
- Al listar todas las URLs con los títulos, se proveen los anchors text por los que queremos posicionar
- Mejora de la crawlabilidad, lo que tendrá una repercusión directa en la indexación
En referencia a la implementación de la Vista RSS en Brandemia, la mejora tuvo efecto en muy poco tiempo. No sé si es que los Reyes Magos hicieron el regalo antes de tiempo, pero el día 25 de Diciembre de 2014 se implementó esta mejora ( lo puedes ver en la captura de Bitbucket. Bitbucket es un sistema de control de versiones gratuito donde puedes crear cualquier proyecto y tener un backup del mismo.
Como puedes ver en esta captura de Webmaster Tools, se incrementaron las impresiones considerablemente. El motivo podía haber sido mejora de crawlabilidad, mejora de indexación o cualquier otro factor de posicionamiento en buscadores. Igualmente, podía haber sido otra consecuencia de los diferentes cambios que se implementan con frecuencia en los diferentes algoritmos.
Es posible que el motivo del aumento de las impresiones estuviera debido a otra razón que me dió que pensar cuando pude ver el Tweet de Cyrus Shepard el 29 de Enero de 2015. Puedes ver el Tweet aquí: Each year, Google hits us with the same weird penalty. But I'm no dummy - I will get to the bottom of this.
En función del tamaño de la web, el número de URLs puede ser muy grande, la finalidad es conseguir una vía de entrada a los bots de manera que puedan rastrear la web lo más fácilmente posible. Sin embargo, aunque no sea la forma óptima es una mejora que hace más fácil el acceso a los crawlers, desde mi punto de vista.
Otra alternativa para conseguir mejorar los resultados orgánicos sería implementar un Sitemap HTML, pero es una tarea más complicada donde se necesitaría un desarrollador y muchas horas para poder segmentar el contenido, incluirlo en la home del CMS, etc.
Si tienes alguna duda, puedes contactarme y te ayudo en caso de que algo no haya quedado claro.