SEO: Sitemap y robots.txt

sitemap y robot.txt
¿Qué es un sitemap y como crearlo?

¿Qué es y para que sirve el Sitemap?

El posicionamiento en buscadores de los sitios que diseñamos como consultores SEO o que simplemente estamos administrando tiene una enorme importancia en un entorno tan competitivo como es la web de hoy en día. De posicionamiento web depende muchas veces el éxito o fracaso del sitio y por eso tenemos que hacer todo lo posible para informar al los buscadores de la existencia de nuestros sitio.

Un sitemap es un archivo XML que contiene una lista de las páginas del sitio junto con alguna información adicional, tal como con qué frecuencia la página cambia sus contenidos, cuándo fue su última actualización y qué tan importante es respecto al resto de las páginas del mismo sitio.

Un robots.txt en un fichero de texto que todos los buscadores tienen que leer

Construcción del sitemap

La construcción del archivo XML debe seguir una serie de pautas especificadas en el protocolo de sitemaps y después tenemos que informar a los buscadores de la existencia del mismo, para eso os vamos a explicar los siguientes pasos.

  • Contenidos obligatorios del sitemap
  • Ejemplo de sitemap
  • Etiquetas que forman el SITEMAP
  • Alojamiento del sitemap
  • Envío del sitemap con robots.txt

Contenidos obligatorios del sitemap

Un Sitemap se construye usando a etiquetas XML o tags incluidas en un archivo siempre con codificación UTF-8. Los valores de datos (por contraposición a las etiquetas mismas) deben utilizar códigos de escape para ciertos caracteres especiales, tal como se acostumbra en HTML, por ejemplo:

  • Las comillas dobles (“) deben ser reemplazadas por “
  • Los signos menor (<) y mayor (>) por < y > respectivamente.

Ejemplo sencillo de Sitemap

Sitemap y SEO
Captura de pantalla de un Sitemap sencillo

La explicación de la cabecera es bastante sencilla

  • Con la primera etiqueta definimos la versión de xml en uso y la codificación en este caso UTF-8
  • La segunda línea hace referencia al protocolo de uso, el 0.9

Etiquetas que forman el SITEMAP

  • <loc>http://….</lo> url de la página Dirección url de la página que forma parte del Sitemap
  • <lastmod>Fecha</lastmod>, fecha de última modificación
    • Se pone en este formato: 2011-03-31
  • <changefrec>Frec</changefrec>, Frecuencia de Cambio
    • always, siempre, para páginas que cambian cada vez que se muestran. Típicamente, las dinámicas,
    • hourly, a cada hora,
    • daily, diariamente,
    • weekly, semanalmente,
    • monthly mensualmente,
    • yearly anualmente
    • never nunca, típicamente para páginas archivadas.
  • <priority>Valor</priority> Prioridad Se refiere a la importancia que tiene la página que figura en respecto de las demás que componen el sitio. Es simplemente una manera de indicar prioridades relativas dentro del sitio, sin ningún efecto hacia el exterior del mismo. Valor puede tomar valores entre 0 y 1. El valor por defecto es 0.5

Alojamiento del sitemap

El archivo XML así construido se aloja en el servidor como un archivo más del sitio, con la salvedad de que puede contener las URL contenidas en el mismo directorio en que se encuentra o en otros contenidos en él. Normalmente se pone en la raíz del servidor llamándolo sitemap.xml

Envío el sitemap a los servidores

A través de Google Webmaster Tools o de Yahoo Site explorer podemos proporcionar directamente la información de nuestro sitemap a los buscadores. Pero también lo podemos hacer con el archivo robots.txt.

Más información aquí: http://www.sitemaps.org/protocol.php#submit_robots

Creación del fichero robots.txt

El archivo “robots.txt” les dice a los motores de búsqueda a qué partes de tu sitio pueden acceder y consecuentemente rastrear. Este archivo se debe llamar “robots.txt”, y tiene que estar en el directorio raíz de tu sitio.

Su formato habitual es:

User-Agent: *
Disallow: /estilo/plantilla.css
Disallow: /recursos/
Disallow: /capcha/
Disallow: /sesiones/
Disallow: /test/
Disallow: /img/
Disallow: /css/
Sitemap: http://impresas.es/sitemap.xml

En primer lugar con User-Agent: *, especificamos el buscador al que afectará la regla, si ponemos asterisco hacemos referencia a todos los buscadores, también se puede poner por ejemplo google para hacer referencia sólo a google.. Luego deshabilitamos el acceso a todas aquellas carpetas o ficheros que no queremos que sean accedidas y por último vamos a indicar donde está nuestro sitemap y  de esta forma todos los robots que pasen por es sitio podrán localizar fácilmente nuestro sitemap.

Bola extra!!! otros artículos que te interesarán

  1. ¿Cómo limpiar las urls con PHP y .htaccess?
  2. Usar Gzip en WordPress para mejora el rendimiento.
  3. ¿Qué es un sitemap.xml?
  4. Mejorar la seguridad de WordPress con .htaccess
  5. Y para terminar te recomiendo leer mi guía y manual de SEO para principiantes especialmente orientada a usuarios de WordPress.

Compártelo!!


facebooktwittergoogle_plusredditpinterestlinkedinmail

¿Interesado en mis servicios?

Juan Luis Mora Blanco, Consultor SEO/SEM freelance experto en posicionamiento web y Google Adwords. Mis artículos se basan en experiencias reales ¿crees que a tu web le vendría bien algo similar? Contacta ahora!.
presupuesto seo


Tu opinión nos interesa mucho, no olvides comentar!

15 thoughts on “SEO: Sitemap y robots.txt

  1. Gracias por el articulo, lo he entendido bastante bien por que lo has explicado de manera bastante sencilla y entendible, en otras paginas he visto turoriales hiperlargos que no se entendian nada :$

  2. Buenas tardes, alguien sabe como se podría poner para que los buscadores no indexen todas las url que termine mi web que acaben con /r/ por ejemplo. www.midominio.com/articulo/134/r/
    es que google me detecta duplicidades con esas url terminadas /r/
    Gracias

  3. ¿Todavía se hace eso de poner el sitemap en el robots.txt? Por ahí leí que ya no es necesario, yo simplemente lo envío a Webmasters Tools y funciona.

  4. Sólo existe Google como buscador?
    estás dado de alta en todos los que existen?

    Si lo pones allí cualquier buscador podrá encontrarlo y rastrear el sitio.

  5. Hola Juan Luis.
    Encantado de volver a saludarte.
    El fichero robot.txt que generastes en septiembre del 2013, debemos de volver a generarlo de nuevo en Prestashops/preferencias/SEO&URLs.

    Me esplico, me refiero a refrescarlo a cada cierto tiempo como hacemos con Sitemaps.

    Saludos.
    Juan Alberto

  6. Pero si deshabilitamos los módulos en el robots.txt, las imágenes que tenemos en ellos no se indexan.¿Esto hasta qué punto es importante? Gracias !!!

  7. Hola Juan, gracias por tu artículo…
    Tengo algunas preguntas, le agradecería su colaboración:

    -Si mi web se actualiza a diario, debo hacer un sitemap a diario para herramientas de google? y este sitemap debe llevar el mismo nombre para subirlo a la raiz, o es por ejemplo seria sitemap1.xml, sitemap2,xml …. sitemap 213.xml…

    – Si hago los sitemaps, con un gestor para ello, porque google no me subdivide mi web; es decir, la raiz y de alli mostrar otras más, solo veo dos…

    – Si hago sitemaps, y es para que google analice todo el contenido de mi web, entonces para que hago el robots.txt??? si no lo hago en el probador de google me dice que revisa toda mi web, esto es así o es mejor hacer el robots.txt con esta info:

    User-agent: *
    Disallow:

    Gracias por la atención prestada.
    Un abrazo cordial desde Colombia.

  8. Hola, Tengo una pagina y tengo paginacion en ella, y no quiere que se indexe en google ya que es el mismo contenido que el post, como lo quito la paginacion ya he probado pero creo no funciona, o cuanto tengo que esperar para que google rastree mi sitio nuevamente. Probe con Disallow: /page/

  9. ¿Qué has probado?

    En principio si le pones noindex dejará de indexarse y luego puedes borrarlas desde WMT a la vez que cortar en robots.txt

  10. si activas contenidos deberías actualizar sitemap.

    Lo demás no es como tu lo entiendes, el sitemap es solo un mapa que Google sigue o no según le de pero no quiere decir que solo coja lo que este en el. Para bloquear accesos debes usar robots.txt

  11. Buenas José Antonio… Verás que últimamente no respondo los comentarios lo que se dice pronto :)

    ese fichero depende de la estructura, en principio si no has tocado mucho puedes seguir usando el mismo

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *