Indexabilidad es la facilidad que tiene Google u otro buscador para poder rastrear correctamente nuestro sitio web, concretamente el contenido que queramos que se indexe y que éste sea categorizado y archivado de forma correcta por el buscador de acuerdo a los términos y tópicos que deseamos.
Esta indexación es el cimiento de una buena estrategia SEO, es fundamental, ya que aunque hagamos una genial estrategia de marketing de contenidos y generemos multitud de links entrantes, nuestro sitio web no conseguirá una buena posición en buscadores si la indexación de sus páginas no está optimizada. Por ello es fundamental que nos aseguremos que nuestro sitio web se puede rastrear e indexar de forma correcta.
Para empezar, es importante conocer como está tu sitio web indexado en Google, para ello rápidamente podemos hacer una búsqueda en Google escribiendo el comando site:tusitio. Por ejemplo, en la imagen podemos ver una búsqueda para Renfe que tiene 1.380 resultados (páginas indexadas), así podremos tener una idea del estado de indexación de nuestra web para la araña del buscador y si es correcto o no.

Una herramienta fundamental (y gratis) para nuestra estrategia SEO es Google Search Console, en ella podremos obtener más información de cómo estamos indexados, en el apartado de índice de Google veremos el estado de indexación de nuestro sitio web en más detalle. En el ejemplo podemos ver el total de páginas indexadas y las que tenemos bloqueadas por robots.

Para mejorar cómo nuestro sitio web es rastreado e indexado por Google (y otros buscadores) es importante revisar y trabajar en los siguientes aspectos:
- Configuración de robots.txt
- Optimizar la estructura de URLs
- Configurar correctamente los redireccionamientos
- Sitemaps
Configuración Robots.txt
Cuando un sitio web se lanza, es fundamental que verifiquemos que tenemos bien configurado el archivo robots.txt. Este es un pequeño archivo en texto que está alojado en el root de nuestro site. En él podemos configurar que se bloquee el acceso a todos los spiders que usan los buscadores para rastrear nuestra web. Google rastrea todo el sitio web atendiendo a las directrices del robots.txt. Un error muy habitual es no desbloquear la web para los buscadores después de finalizar la etapa de desarrollo.
Para verificar si el archivo robots.txt esta bien configurado, podemos ver este archivo en Google Search Console (ya hemos comentado que es una herramienta de Google fundamental en cualquier implementación de estrategia SEO).
En este ejemplo tenemos un robot que permite el rastreo de cualquier araña de buscador en todo el sitio web excepto en el área de administración de WordPress. En el archivo robots.txt podríamos bloquear el rastreo de otras áreas que nos interese ocultar para que no sean indexadas por Google u otro buscador.
Optimizar estructuras de URLs
Tener una buena estructura de urls tiene mucha importancia, puede prevenir problemas de duplicación de contenidos y permitir un rastreo correcto de nuestro sitio web.
Para tener una estructura de urls adecuada, es interesante usar términos en las direcciones que realmente sean explicativas. Para formar unas urls correctas, podemos usar las herramientas de creación de urls amigables que tienen la mayoría de los gestores de contenido y de e-commerce.
En el caso de que tu sito web genere urls de forma dinámica, asegúrate que sean indexables. Ten en cuenta que Google tiene dificultades para indexar direcciones (URLs) que aparezcan en navegaciones que estén creadas de forma dinámica.
Ten cuidado con las urls que se generan en función de buscadores dinámicos dentro del sitio web, estas acciones manuales que realizamos los usuarios no las hace la araña de Google, por lo que deberías indexar algunas de las urls manualmente a través de la creación de un sitemap. Si no lo haces así, Google no indexará dichas urls. Un ejemplo de navegación en base a un formulario de selección por el usuario sería :

Intenta minimizar el uso de variables en las urls ya que al indexarlas se pueden generar múltiples indexaciones de la misma página donde solo varían las variables. Con ello corres el riesgo de que Google entienda que tienes contenido duplicado y tu sitio web sea penalizado.
Redireccionamientos
Cuando migramos contenido o creamos una nueva web que sustituye a una versión anterior de la misma, es importante que configuremos correctamente las urls anteriores a las nuevas para evitar que tu pagina pierda posicionamiento. Si no lo hacemos así, tendremos múltiples errores de contenido no encontrado debido a que las anteriores direcciones siguen indexadas por las arañas de los buscadores.
Sitemaps
Una herramienta muy práctica para enviar contenido a Google es el uso de los sitemaps. Un sitemap es un código en formato XML que indica a Google cuáles son las páginas de nuestro sitio web junto a otra información que podemos configurar a nuestra medida.
El enviar un sitemap a Google es muy sencillo. Existen múltiples herramientas para generar un sitemap de forma sencilla y gratuita. Un sitemap tiene el siguiente aspecto:

Para enviar un sitemap a Google basta con subirlo a la raíz de tu sitio web. Si estás utilizando Google Search Console, puedes enviarlo directamente para su procesamiento. Para ello en la aplicación tan sólo tenemos que ir a la sección de rastreo y a través de la pagina de sitemap comprobar nuestros sitemaps y enviar uno nuevo. Además en esta sección también podemos ver el estado de indexación de las urls que hemos enviado desde Google Search Console.

Estas tácticas que hemos explicado son fundamentales para un buen inicio de tu estrategia SEO, el asegurarnos que no hay problemas de rastreo de mi sitio web para las arañas de los buscadores va a ser clave para el resto de acciones que hagamos posteriormente para mejorar el posicionamiento de mi negocio en Internet.
En otro post, pronto os hablaremos de cómo eliminar los famosos errores «404» de la web, permanecer atentos!