Como todos sabemos el SEO principalmente puede hacerse desde el propio sitio web (SEO onpage) o desde sitios externos (SEO offpage). Cuando estamos optimizando el interior de un sitio web para el posicionamiento en buscadores, tenemos que tener muy en cuenta los ficheros robots.txt y sitemap.xml.
Etiqueta: robots.txt
El archivo robots.txt es un archivo de texto utilizado para indicar a los motores de búsqueda cómo deben rastrear y acceder a las páginas de un sitio web. Aquí hay algunos puntos clave sobre el archivo robots.txt
¿Robots.txt qué es? 26 Consejos SEO para usarlo como un experto
Desde los graves problemas que el contenido duplicado causa en el posicionamiento de muchas web la mayoría de clientes, sobre […]