La optimización del motor de búsqueda de Google y su regla 80/20

Las técnicas de optimización de los motores de búsqueda (con «z» o «zee» si eres del otro lado del charco) están en constante evolución. Esta evolución responde a la evolución de los motores de búsqueda como Google, Yahoo y MSN. Google, en particular, ha llegado a ser considerado el motor de búsqueda más sofisticado y avanzado, ya que cuenta con una serie de tecnologías antispam. Fresadoras ya las conoce.

El creciente uso de las funciones anti-spam por parte de Google ha hecho que la optimización de los sitios web para Google sea mucho más difícil y ahora no se trata simplemente de abrir los archivos fuente de los sitios web en el bloc de notas, añadir algunas palabras clave en las distintas etiquetas HTML, cargar los archivos y esperar los resultados. De hecho, en mi opinión, y estoy seguro de que otros estarán de acuerdo conmigo, este tipo de optimización, comúnmente conocida como optimización en la página, sólo tendrá un 20% de efectividad para lograr clasificaciones para cualquier palabra clave que sea medianamente competitiva. Aquellos de nosotros que estudiaron matemáticas en la escuela sabrán que esto nos deja con un 80% sin contar.

Este 80% corresponde a la optimización fuera de la página. La optimización fuera de la página tiene que ver con la cantidad de enlaces que apuntan a su sitio y sus páginas, el texto de enlace real (texto ancla) de estos enlaces y la calidad de las páginas en las que se encuentran los enlaces. La optimización fuera de la página es ahora, sin duda, el factor predominante que decide la posición de un sitio en Google. Esto es lo que quiero decir con la regla del 80/20, no estoy hablando de la regla de pareto que significa que en cualquier cosa unos pocos (20%) son vitales y muchos (80%) son triviales, no estoy seguro de que eso se aplique al SEO.

¿Cuál es la lógica detrás de esto entonces, por qué Google da tanto «peso» (80%) a los esfuerzos de optimización fuera de la página y tan poco (20%) a la optimización en la página. En pocas palabras, se trata de la calidad de sus resultados. Mientras que la optimización onpage está completamente controlada por el webmaster y, por lo tanto, puede ser abusada por alguien sin escrúpulos, la optimización offpage es algo que no está controlado por nadie como tal, sino por otros webmasters, sitios web y, de hecho, por Internet en general. Esto significa que es mucho más difícil llevar a cabo cualquier método de optimización fuera de la página con la esperanza de obtener una ventaja injusta para un sitio web en las SERPS de Google (páginas de resultados del motor de búsqueda), aunque esto no significa que sea imposible.

Vamos a explicar durante un par de párrafos por qué los elementos offpage, como los enlaces entrantes, son considerados por Google como una buena medida de relevancia, lo que hace que la optimización offpage sea el método de optimización más eficaz con diferencia. Por ejemplo, el texto ancla de los enlaces entrantes: si Google ve un enlace del SITIO A al SITIO B en el que el texto del enlace son las palabras «recuperación de datos en Londres», el SITIO B acaba de adquirir mayor relevancia y, por lo tanto, es más probable que aparezca más arriba en la clasificación cuando alguien busque «recuperación de datos en Londres». El SITIO B no tiene ningún control sobre el SITIO A (en la mayoría de los casos…) y Google lo sabe. Google puede entonces mirar el texto del enlace y preguntarse por qué el SITIO A enlazaría al SITIO B con las palabras específicas «recuperación de datos en Londres» si el SITIO B no fuera «sobre» la recuperación de datos en Londres, no hay respuesta, así que Google debe considerar que el SITIO B es «sobre» la recuperación de datos en Londres.

He dicho «en la mayoría de los casos» porque a menudo los administradores de sitios web tienen varios sitios y los enlazan con texto de anclaje rico en palabras clave, pero el número de sitios y enlaces cruzados que un administrador de sitios web puede gestionar es limitado. Una vez más, Google lo sabe y, por lo tanto, a medida que aumenta el número de enlaces de retorno y las apariciones de texto de anclaje rico en palabras clave (y con ello aumenta la probabilidad de que se produzca algo no natural como el enlace cruzado), también aumenta la relevancia del sitio al que apuntan todos los enlaces de retorno. Imagínese que cientos o miles de sitios enlazan a un sitio web X con variaciones de frases del tipo «recuperación de datos en Londres» como texto de enlace, entonces Google puede estar bastante seguro de que el sitio web X es «sobre» la «recuperación de datos en Londres» y se siente confiado al devolverlo en los 10 primeros resultados. Por eso dan tanta importancia (el 80%) a los factores de clasificación fuera de la página, como los enlaces; son simplemente la forma más fiable de comprobar de qué trata un sitio y, de hecho, lo bien que cubre lo que trata. Esta confianza en factores offpage difíciles de engañar es lo que produce los resultados de búsqueda de calidad que todos conocemos, amamos y usamos todos los días.

Dejar un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *