SEO

Jul 042016 20 Responses

¿Cómo podría un programador chuscarse tu SEO?

Vamos con uno de esos cases reales tan majos (sobre todo si no te tocan a ti).

Hay que decir que este caso comenzó llamándose “¿Cómo puede un programador chuscarse tu SEO?” y acabó llamándose “¿Cómo podría un programador chuscarse tu SEO?”. ¿Por qué? Porque se tuvo más potra que otra cosa. El caso podría haber sido una putada en toda regla si, en vez de quedarse todo igual, comienzan a bajar los rankings.

UPDATE: Añado estas líneas ya que creo que no ha quedado claro en el post, mea culpa. El programador NO es de la empresa. Pertenece a una empresa externa que se dedica a la programación y que es experta en programación orientada a comercio electrónico. El programador, por lo tanto, es externo y reporta a su jefe, no al cliente final.

Cronología de los hechos

Todo comenzó con una funcionalidad del site que necesitaba SSL para funcionar.

  1. Hace años, comienzan a meter buenos contenidos en su página
  2. Comienzan a subir en SEO
  3. Hace una semana, tienen un problema con una funcionalidad de su tienda
  4. Se lo pasan a un programador (a una empresa externa experta en programación para ecommerce que lo deriva a uno de sus programadores) para que este lo arregle
  5. El programador detecta que la funcionalidad no tira porque no está el SSL puesto en todo el site
  6. El programador decide poner el SSL en todo el site sin consultar a nadie (un viernes, para más Inri)
  7. Cuatro días más tarde, el propietario de la tienda se da cuenta y no sabe qué hacer
  8. Casi todas las URLs del site están ya indexadas con SSL
  9. Decide quitar el SSL y bajan los pedidos. El real time le muestra poquísima gente
  10. Todos los usuarios que acceden a la web desde Google van a parar a un bucle de redirección
  11. Dos horas después, decide poner el SSL otra vez
  12. El real time se multiplica por 3
  13. Dejan puesto el SSL

Et voilà

Cabe decir que lo más “divertido” del asunto es que hacer dicho cambio a SSL para todo el site depende solo de dos clics. La visualización sería algo así, el famoso “FUCK IT BUTTON

Fuck-It-Button

¿Conocéis el efecto mariposa? Pues eso.

Sus datos de orgánico se resienten los primeros días. El bajón de visitas es de hasta 5.000 menos.

bajon-5

Aquí tenemos su Top 4-10 de SEMRush para Google.es, el único que sube:

bajon-4

Top 11-20, bajando:

bajon-3

Top 3, 13 keywords bajando:

bajon-2

Orgánica en SEMRush:

bajon-1

En global, la pérdida de keywords es importante y, por suerte, se compensa en cierta manera con las posiciones 4-10:

perdida-kw

Clics/impresiones del nuevo perfil https en Google Search Console. Un poema.

bajon-6

Y quitamos los 50.000 que corresponden a keywords de marca:

bajon-7

Pese a todo, insisto con lo que comentaba al principio del post, la fockada (que dice el amigo Natzir) no es tan bestia como podía haber sido, veamos el tráfico orgánico antes y después del cambio:

cambio

Prácticamente no se ha perdido tráfico, puesto que el bajón de los primeros días se ha compensado con una subida en los dís siguientes.

Moraleja

LAS PUTAS MANOS QUIETAS.

Pero han tenido una potra como para ir a misa cada domingo. La suerte ha sido que el site tenía una buena reputación y había hecho muy bien las cosas durante mucho tiempo, por lo que la cagada no les ha afectado tanto como podía haberlo hecho. Lo dicho, buena potra.

Jun 062016 3 Responses

Resultados de una auditoría SEO

En los últimos meses, gran parte de mi curro han sido las auditorías SEO de site para detectar qué puntos se pueden mejorar de cara a dejar el SEO on page fetén.

Hoy os voy a presentar el trabajo hecho para un cliente que estaba en declive total debido a pandazos varios. La curva de tráfico orgánico iba así de bien:

bajon

La problemática principal

Para que os hagáis una idea, la visibilidad del cliente en Sistrix había bajado 1.3 puntos. El principal problema es que el SEO era su principal fuente de ingresos y dejó de serlo, bajando su facturación en demasiadas cifras.

Manos a la cobra

Después de usar herramientas varias como:

  • Screaming Frog y Deepcrawler
  • Google Analytics (perfil del site y perfil de bots de rastreo)
  • Google Search Console
  • Rank Tracker
  • Cognitive SEO
  • SEMRush
  • Sistrix

Y, por otra parte:

  • interrogar al cliente ad infinitum
  • mirar el htaccess del site a fondo
  • las extensiones metidas en el site
  • apuntar el histórico de cambios
  • analizar todos los dominios satélite del cliente
  • y muchas, muchas, muchas hojas de Excel para analizar los datos que tenía a mi alcance

Conclusiones y a meterle mano al tema

Las conclusiones a las que llegué y que, mano a mano con el equipo técnico (si el cliente no llega a tenerlo, esto no lo acabamos ni pasado mañana) empecé a arreglar cagando leches fueron:

  • Categorías con textos sin optimizar para la keyword principal
  • Jerarquías de contenido mal definidas
  • Productos duplicados con atributos diferentes y sin canonical
  • Interenlazado entre categorías inexistente (y, por supuesto, tampoco en las categorías con rankeado más potente)
  • Mezcla de URLs con http y https
  • Paginaciones abiertas y sin canonical
  • URLs con parámetros abiertas y generando decenas de miles de duplicados
  • Recursos bloqueados a tope: js, css, jpgs, gifs, pngs que hacían que el pantallazo del “fetch as Google” fuese un drama
  • Bucles de redirección de muchísimos pasos. Demasiados.
  • Hreflang mal implementados
  • Rich snippets mal implementados
  • Decenas de miles de errores 404
  • Enlazado con el punto anterior, URLs nuevas que se subían y que no se indexaban a raíz de que Google ni las miraba, se pasaba todo el rato en los 404s
  • Sitemaps que hacían llorar al niño Jesús
  • Miles de meta informaciones duplicadas

Lo de las páginas abiertas duplicadas era muy heavy. Os dejo la curva de páginas cerradas con el robots.txt a partir de que le metí mano al tema para que os hagáis una idea (línea naranja).

bots

Estamos hablando de casi 6 cifras (eso son 100.000) URLs. Todas estaban generando duplicados.

A parte de eso, los enlaces desde fuera. Madre mía. Hacía tiempo que no veía tanta ponzoña junta. El cliente había tenido un pingüinazo en su día y muchos de los enlaces chungos todavía seguían ahí sin limpiar. Juntemos eso con que alguien había metido en el fichero disavow también varias decenas de links que sí eran buenos. ¡Buen mejunje!

Resultados

No nos engañemos. El site sigue estando en cifras malas, pero menos malas.

Estamos hablando de que íbamos en declive y la cosa se está estabilizando. Se había llegado a perder un 40% del tráfico SEO YoY y ahora se está perdiendo menos de la mitad. Todavía nos queda para llegar a los números positivos, pero tenemos buenos indicadores como que:

  • cuando pillé el proyecto, el tráfico llevaba meses bajando progresivamente y ese bajón ha parado
  • cuando pillé el proyecto, las keywords en el Top 20 llevaban 1 año bajando, ahora están subiendo
  • la visibilidad en Sistrix está subiendo
  • la frecuencia de rastreo ha subido
  • los errores 404 han bajado a menos de 100
  • los bots cada vez se pasan menos tiempo en los 404s y redirecciones y van a páginas buenas
  • el SEO vuelve a ser la principal fuente de ingresos del site
  • las transacciones desde SEO prácticamente se han doblado

¿Qué hubiese pasado si no se hace esta auditoría y se pone remedio al tema? La web hubiese seguido vendiendo, pero cada vez menos. Para compensar el bajón en tráfico orgánico, había que invertir ingentes cantidades de dinero en CPC, cosa que hacía bajar mucho el margen por venta, por lo que la cosa hubiese sido insostenible a pocos años vista o se hubiese que tenido que replantear el negocio desde 0. A menos, claro, que hubiesen conseguido otra fuente de ingresos principal con el tráfico que les traía el SEO y al coste por adquisición que les traía el SEO. Esa fuente, hoy en día, no existe.

1 2 3 4 42