Auditoría SEO para ecommerce – 1 Ejemplo práctico completo.

Para este “nuevo curso o nueva fase” he decidido volver a escribir posts a medida que voy trabajando y encuentro temas que puedan interesar a lectores como tú, que sois los que día a día compartís mis artículos, comentáis o contactáis para informaros sobre mis servicios y en definitiva esto es lo que cuenta.

Caso práctico sobre una Auditoría SEO para Prestashop.

En este ejemplo de auditoría SEO voy a usar 3 herramientas: el navegador web, Search Console y Screaming Frog.

Principalmente lo que haré será localizar problemas o indicios a posibles problemas en Search Console, comprobarlos de primera mano usando el navegador WEB y un estudio de la arquitectura con Screaming Frog.

Estudio de Search Console

En Search Console podemos ver los aspectos básicos que tenemos que tener presentes en una auditoría SEO: Indexación, Rastreo, Contenidos, Popularidad y Rendimiento.

Indexación

Para este ejemplo me encuentro que tiene todo el contenido indexado y absolutamente nada bloqueado por robots.txt.

auditoria-seo-indexación

Efectivamente robots.txt tiene permitido acceder a todo el sitio incluyendo consultas de búsqueda, filtros… o lo que es lo mismo “contenido fino” (thin content) que aparte de ser de por si un factor negativo, de cara al posicionamiento en buscadores, es también una forma de diluir la autoridad del dominio entre cientos de páginas de mala calidad.

Lógicamente con esta configuración de robots.txt también se habrán indexado múltiples urls dinámicas que tendremos que configurar en el correspondiente apartado de “parámetros URL“.

Rastreo

En este caso el panorama que me encuentro es bastante mejor y veo una velocidad de rastreo bastante buena aunque como siempre mejorable.

rastreo

La recomendación sería intentar bajar el tiempo medio a 500 ms, lo que seguramente se podría conseguir fácilmente reduciendo imágenes, limitando el número de urls dinámicas que se están leyendo actualmente y des-instalando algunos módulos de alto consumo.

Contenidos

En estos aspectos podemos ver opciones como “datos estructurados“, “mejoras en HTML“, “Análisis de la búsqueda“… pero os voy a contar una curiosidad que he visto buscando contenido duplicado en las “mejoras HTML“.

Por lo que veo el cliente ha usado el módulo que elimina los ids de las urls en Prestashop pero por algún motivo las antiguas urls no se están redireccionando a las nuevas de forma correcta lo que le produce en primer lugar errores 404 y en segundo lugar una pérdida de los posibles enlaces que tuviera indexados el buscador hacía esas páginas.

Enlaces

En este aparatado también lo que veo no está mal… aunque no es mucho por lo menos es de calidad y desde sitios relacionados.

El problema está en que van todos a la home o a algunos posts del blog con lo que no está subiendo suficientemente la autoridad de las páginas importantes y categorías para aprovechar el posicionamiento.

Veamos la arquitectura con Screaming Frog

Esto también se podría ver en Search Console pero prefiero hacerlo con Screaming Frog por comodidad y por la sencillez con la que presenta los datos de forma gráfica.

niveles

Veamos

  1. Un 10% del sitio está en primer nivel, de por si el dato es bastante alto y si miramos la web vemos que gran parte de esas 77 urls son de contacto, privacidad, devoluciones… Sin duda algunas son páginas importantes pero no todas tienen que estar presentes en todas las ocasiones y caso de serlo es recomendable que estén enlazadas en partes inferiores, en este caso muchas están en la parte superior. Otro motivo para que esto pase puede ser que la tienda tenga un exceso de categorías padre o en exceso de categorías hijas mostradas en los menús.
  2. En el segundo nivel tenemos el 39% del contenido que sumado al anterior 10% nos da ya la mitad de la tienda en los niveles preferentes. En mi opinión el segundo nivel no está tan saturado como el primero y bastaría con seleccionar adecuadamente los productos que se muestran en primera página de cada listado para intentar reducir aproximadamente un 15% potenciando los más rentables.
  3. En cuanto al número final de niveles lo veo bien, ya que teniendo un blog es fácilmente llegar a nivel 6 y más mediante el páginado.

Códigos de respuesta

En especial son preocupantes en este caso los 5xx, los 3xx y los 4xx a recursos externos e internos, para este caso vemos

códigos-respuesta

Sin duda son muchas redirecciones que van entorpeciendo el tráfico a robots y esto afecto al rastreo,  la mayoría de redirecciones son a botones de share social que no se están colacando con la url tipo “https” y producen una redirección, estos botones son externos y no afectarían al rastreo interno pero no estaría de más corregirlos. El resto de redirecciones son en los parámetros de búsqueda que se tienen que solucionar.

Conclusión

En resumen este sitio presenta sobre todo un problema de arquitectura al tener demasiado elementos en el primer nivel y segundo nivel, además no se han generado enlaces externos a contenidos internos para mejorar el posicionamiento de los mismos.

Y esto no es todo, ahora tenemos que hacer un estudio de las keywords de este negocio y ver si están suficientemente representadas en el juego de páginas y luego tendremos que modificar la aquitectura y la navegación para colocar esas “landing optimizadas” en las mejores partes de la arquitectura y como siempre trabajar la calidad y la popularidad de nuestros contenidos.

 


Conoce mis servicios SEO.



Servicios personalizados para profesionales, agencias y PYMES

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *