Cuando de posicionamiento orgánico se trata, es complicado dar una regla, o pasos a seguir, para obtener resultados efectivos a corto plazo, esto es algo que saben todos los que están empapados del tema de SEO, pues son conscientes de que esta es una labor que está en constante cambio, por ende es necesario actualizarse periódicamente e implementar nuevas estrategias hasta encontrar la que mejor resultados dé.
Para ello es necesario estar pendientes a las actualizaciones que Google hace constantemente, muchas de ellas con el fin de mejorar la experiencia de los usuarios en la red, que puedan obtener los resultados de lo que realmente están buscando y no toda esa información carente de sentido que entorpece la navegabilidad y usabilidad de la web.
Para tratar de darle solución a esta problemática, Google ha implementado estrategias que detectan las faltas o trampas de muchos de los que se dedican a la labor de posicionamiento orgánico (SEO). Para ello ha desarrollado varios algoritmos que penalizan todo tipo de conductas inadecuadas, y mejora el rango de aquellos portales webs que en realidad contienen información de gran valor.
Conozcamos un poco más en profundidad sobre estos algoritmos. Vamos en orden cronológico.
Google empezó ejecutando dicha acción de monitoreo (algoritmos) con Google Panda, el cual fue implementado por primera vez en febrero de 2011. Su objetivo principal era detectar qué sitios carecían de calidad y disminuir su rango, es decir, des posicionarlos de los primeros lugares del buscador, bien sea porque tenían contenido desactualizado o demasiada publicidad, y darle prioridad a las páginas que sí tenían contenidos idóneos y relacionados con la búsqueda de los usuarios de Google (entre los sitios beneficiados con la entrada en funcionamiento de Google Panda están portales de noticias y redes sociales).
Este fue el principio del fin de aquellos que buscaban aparecer de manera facilista en los primeros lugares de los motores de búsqueda, por consiguiente, hizo que el trabajo de SEO fuera más exigente, razón de peso para que muchos se preocuparan por estudiar en profundidad técnicas y herramientas para la optimización de sus sitios web.
El siguiente algoritmo en ejecutarse fue Google Penguin (Pingüino). La primera actualización se hizo en abril de 2012, su objetivo principal era detectar a aquellos que estaban implementado estrategias “negras” de SEO.
Como es de conocimiento general, ante una necesidad siempre hay que buscar la alternativa o solución, y este fue el caso de los gestores de contenido (SEOs, CM, editores de contenido y demás), quienes al ver que ya de nada servía para el posicionamiento tener contenido duplicado en sus portales, empezaron a practicar lo que se denominó como Black Hat SEO (SEO negro). Ésta consiste en buscar links externos que apunten hacia sus portales, o crear granjas de link, para mejorar su posición en el ranking de búsqueda orgánica.
Esta manipulación de enlaces que apuntan al mejoramiento en el posicionamiento del ranking de una página web, fue razón por la que Google implementó este algoritmo el fin de filtrar y penalizar a aquellas páginas que estuvieran llevando a cabo dicha práctica (Black Hat SEO) para mejorar en posiciones.
Este algoritmo salió al ruedo el 20 de agosto, sin embargo, aún faltan mejoras para que se ejecute de forma efectiva en los países de habla hispana, a diferencia de Estados Unidos donde funciona a las mil maravillas.
El objetivo de este nuevo filtro no es tanto penalizar como lo hacen los anteriores algoritmos (Panda y Penguin), este es un poco más amigable y su propósito es premiar a los portales que contengan información realmente enriquecedora, contenido que le sea útil al usuario. Esto se debe a que la búsqueda en la web se ha vuelto, de alguna forma, más exigente, puesto que ya el empleo de palabras claves amañadas está desapareciendo un poco de escena (no quiere decir que aún no se empleen, todavía hacen parte de la estrategia de SEO), pero la idea es “conversar” un poco más con Google, puesto que es un sistema “inteligente”, y con este algoritmo se pretende que el usuario interactúe de forma un poco más pear to pear (de igual a igual) con el buscador.
Ejemplo: si vas a redactar un contenido y el título que vas a implementar es páginas web a la medida, para Google Hummingbird resultaría más efectivo emplear una forma un poco más amigable, por ejemplo: ¿cuál es la importancia de una página web a la medida?
Este algoritmo supone un reto más elevado para la implementación de estrategias de posicionamiento orgánico, eso se debe a que los contenidos deben tener más sentido crítico y analítico, que es en suma lo que en realidad proporciona información valiosa a los usuarios.
Este es el más reciente de los algoritmos implementados por Google para el mejoramiento de la experiencia de los usuarios en la red, entró en funcionamiento a principios de agosto de 2014, y la especialidad de Pidgeon es hacer que el SEO local sea más valioso, es decir, que el usuario obtenga resultados más cercanos, valiosos y ricos en contenido, de acuerdo a su ubicación.
Hasta el momento se conoce muy poco sobre este nuevo algoritmo, pero lo que sí es cierto, es que los principales beneficiados han sido los directorios locales, como TripAdvisor, Grupon, entre otros que tienen información cercana y útil para la comunidad cibernauta, alejando a las grandes multinacionales que en nada eran útil en los resultados de la búsquedas (entiéndase desde el ámbito de lo local y proximidad, que aportan real valor al usuario).
Como pudieron notar, Google es un gigante informático que está en constante crecimiento y siempre está pendiente de todo tipo de conductas que puedan entorpecer la experiencia en la red (a la larga de eso se trata el “negocio” y no hay que descuidarlo, pensarán ellos), por tal razón, desde que las TICs empezaron a hacer grandes cambios en la sociedad, influyendo en todos los ámbitos de nuestra cotidianidad, muchos han sacado provecho de ello para beneficio propio, pues si hacemos un poco de memoria, anteriormente cuando buscábamos cualquier información en la web nos aparecía toda una variedad de contenidos que eran de real importancia, pero de un tiempo en adelante esto cambió, y encontrar información relacionada con lo que deseábamos era muy complicado, se encontraba prácticamente en las últimas posiciones, o rueditas, de Google.
Para los que desarrollan buenas estrategias de SEO no hay nada de qué temer, por el contrario, cada que se haga una actualización de cualquiera de los algoritmos (Panda, Penguin, Hummingbird y Pidgeon) saldrán beneficiados.
Por cierto, cabe aclarar que los algoritmos se toman su tiempo en actualizarse, pues la red es un campo bastante amplio, y por más avanzadas que sean las mejoras que a diario se hagan, aún se requiere tiempo.
Si te estás preguntando cuál es la mejor forma para implementar tu estrategia de SEO y mejorar el posicionamiento de tu portal, debes tener en cuenta que para Google siempre serán importantes los contenidos valiosos y llenos de sentido, este es el factor que más valor le otorga al SEO. También hay otros factores, pero ya es otro asunto.
Recuerda que Google ahora está apuntándole a una nueva generación web, y el término con el que se le conoce es “Web Semántica”, en otras palabras, llena de significado, menos estructural, más específica, más analítica, y por ende más valiosa.
Si te ha sido útil este contenido no olvides comentarlo y compartirlo con tus amigos para que estén al tanto de las novedades digitales que pasan desapercibidas para muchos.