Eliminar páginas indexadas con https de Google

quitar-https-googleEstoy trabajando como consultor SEO en el caso de un Prestashop que tras una auditoría y consultoría  SEO habitual ha dado entre otros un problema por tener indexado el home de Prestashop con https en el índice de Google (no por ejemplo en Bing o Yahoo).

Por otro lado también ocurre que el title del home no se actualiza tras los cambios, lo cual es un gran problema debida a la importancia que tiene el título de la página principal.

Solución para desindexar urls con https

Redireccionar las solicitudes https

Usando este código en .htaccess

RewriteEngine On
RewriteCond %{SERVER_PORT} 443
RewriteRule ^(.*)$ http: //dominio.xxx/$1 [R=301,L]

Hacemos que las solicitudes de páginas https se redirijan hacía la versión http indicando 301 con lo que debería ser suficiente para que Google cambie la url indexada por la correcta, pero no obstante este cambio todavía no ha conseguido cambiar las urls en el índice de Google y ya lleva casi un par de semanas puesto y por supuesto lo he testeado debidamente usando http://web-sniffer.net para asegurarme de dicha redirección.

Voy a hacerle ping en distintos servicios y le daré una semana más aproximadamente para ver si esto se soluciona. En caso de no pasar tengo ya pensado lo que hare.

Bloquer https desde robots.txt

Esta es una solución que me he encontrado en los foros de webmasters de Google, pero no me acaba de convencer y por eso la he dejado para final, consiste en crear una versión alternativa de robots.txt para cuando se accede desde https y bloquear todo el contenido por esta parte, pero como bien he dicho eso es un bloqueo y no una desindexación y creo que es más apropiado para aquellos casos en los que se ha duplicado una url.

Consistiría en

  1. Creación versión alternativa de robots.txt, por ejemplo robots_https.txt y en ella indicar que no se puede acceder al contenido (Disallow :/)
  2. Subir esa versión al servidor
  3. Dar instrucciones que cito a continuación en .htaccess para que cuando se acceda por https nuestro server muestre el robots.txt alternativo.

RewriteEngine on
Options +FollowSymlinks
RewriteCond %{SERVER_PORT} ^443$
RewriteRule ^robots.txt$ robots_https.txt

Comprobaciones que se han realizado

  1. Desde ninguna parte de la web se enlaza  a la home con https, si a otras páginas
  2. Desde ningún sitio externo (que haya podido encontrar) se enlaza a la url con https
  3. Como he dicho antes, la redirección de https a http esta probada.

Como os he comentado antes esta última forma no me parece tan adecuada como la primera y si alguno de vosotros sabe otra mejor para este caso por favor que no dude en dejarlo en un comentario, muchas gracias.

Actualización 1

Entre ayer y hoy a parte de hacer ping hice un par de cosas más: publicar una pregunta en el foro de productos Google con el enlace al sitio sin https, poner algunos tuits con la url y cambiar el redirect para que solo afecte a la home (ya que el carrito dejo de funcionar). Parece que con esto en el índice ya se ve la url bien, pero todavía no se ha actualizado el title, espero poner pronto una actualización 2 confirmando este punto.

Actualización 2 y final!!

Tal como me esperaba al poco de las anteriores actuaciones el sitio se ha indexado correctamente sin https y con el nuevo title actualizado, así que si queréis dexindexar páginas con https podéis seguir el mismo camino.


Conoce mis servicios SEO.



Servicios personalizados para profesionales, agencias y PYMES

13 comentarios en “Eliminar páginas indexadas con https de Google

  1. Buenas tardes

    Mi problema es el siguiente: Abrí mi blog pero cometí el error de subir piezas publicitarias que aùn no podían ser vistas, al darme cuenta, eliminé el contenido, pero a pesar de que borré las imágenes e hice la solicitud de elminación, estas siguen apareciendo en el buscador de imágenes de Google. Espero su pronta ayuda y muchas gracias.

  2. Si las imágenes realmente no existe pronto desaparecerán solas, si quieres acelerar el proceso solicita un eliminación de url desde GWMT

  3. Buenos días.

    En mi caso particular he realizado algo similar pero no consigo ningún resultados. Las URLs indexadas inicialmente han cambiado para incluir una nueva palabra para mejorar el SEO y las antiguas están bloqueadas desde Robots.txt.

    Aunque las nuevas están informadas en sitemap y WMT me indica que se indexa correctamente, continúan tras tres semanas apareciendo las antiguas.

    ¿Cómo puedo conseguir que se actualice con las nuevas al igual que has hecho en tu caso con el índice?. ¿Debería dar de baja todas las URLs antiguas con WMT?

    Mucha gracias por cualquier orientación y ayuda.

  4. Buenas esta pagina la estoy haciendo con prestashop el fallo ha sido verla antes de tiempo y google me ha indexado todo lo que ponia de la plantilla direccion productos.

    La verdad es k soy un poco torpe con todo el vocabulario y demas si hicieras el favor de hechar un vistazo y decirme que puedo hacer.

    He visto lo de herramientas webmaster y eliminar url pero no se exactamente k debo hacer y no me fio por si la lio mas.

    Muchas gracias de antemano.

  5. Pues debes hacer eso, elimina las urls que no sean reales y ten en cuenta que no deben exister actualmente o se volverán a indexar.

  6. Juan Luis, algo ha debido de ocurrir que ha eliminado mi consulta.
    Vuelvo a escribirte.
    Mi problema es el mismo que tu has indicado. Se indexaron muchas páginas de mi wite con https (además era un sitio en el cual no era preciso utilizar un certificado SSL).
    He hecho lo mismo que tu indicas en este post, tanto en relación a los robots.txt como al htaccess pero siguen estando indexadas esas páginas.
    Lo que hice además fue eliminar el certificado SSL para que Google también fuese dejando de indexar esas páginas con https. Lo que no sé es si he cometido un error al quitarlo o no.

  7. Mi web acaba de ser lanzada por lo que no perdería posiciones.
    ME encuentro en la situación en el que no sé si redireccionar de http a https o viceversa. Actualmente estoy en https.
    Es mejor alguna que otra?

  8. Si trabajas con información delicada hazlo pero si no es necesario no tiene sentido tan solo por SEO

  9. Gracias por el artículo, justo me di cuenta ayer que me estaba pasando.

    Esa sentencia es compatible con yoast?

  10. RewriteEngine On
    RewriteCond %{SERVER_PORT} 443
    RewriteRule ^(.*)$ http: //dominio.xxx/$1 [R=301,L]

    Tienes un error , espacio entre el http: //

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *