Algoritmos de Google | Weboptim

Google utiliza algoritmos para intentar ayudar a los usuarios a encontrar el contenido que buscan. En el pasado, esto se hacía, por ejemplo, estableciendo metaetiquetas, que indicaban a Google de qué trataba la página.
 
Sin embargo, a medida que Google ha ido evolucionando, la atención se ha ido centrando cada vez más en ofrecer contenido relevante a los visitantes durante las búsquedas. Los algoritmos utilizan cientos de factores para determinar qué páginas web son las más relevantes para un término de búsqueda determinado.
 

En los últimos años, se han producido 3 grandes cambios en los algoritmos de Google.

1. El algoritmo Panda

Google Panda

La primera versión Febrero de 2011 . El objetivo era garantizar que los sitios web de alta calidad obtuvieran mejores resultados en las búsquedas y los de baja calidad se clasificaran peor.
Inicialmente se denominó „actualización del granjero” porque se centraba en las granjas de contenido (las granjas de contenido son sitios que crean contenido de baja calidad centrado en las búsquedas de palabras clave de Google).
 
Así que el algoritmo Panda para sitios web calidad y fiabilidad construir.
 
Los expertos han elaborado una lista de preguntas a las que hay que responder para determinar si un mañana es de buena calidad:  googlewebmastercentral.blogspot.ca/2011/05/more-guidance-on-building-high-quality.html
 
Pero nadie conoce con exactitud todos los factores que utiliza Google para determinar la calidad. La atención se centra en crear contenidos que sean valiosos para los usuarios. Pero, ¿cuáles son los factores más importantes?

 

  • evitar contenidos estrechosPáginas cortas: las páginas cortas no suelen ser útiles. Incluso si una página web tiene muchas páginas indexadas con unas pocas líneas de texto, Google la clasificará como de baja calidad.
  • sin contenido duplicadola mayor parte del contenido es robado de otros sitios, duplicados on-page - las 2 formas principales en las que el algoritmo Panda puede clasificar su sitio web como de baja calidad.
  • filtrar los contenidos de baja calidad: se centran en la creación de contenidos únicos y valiosos

¿Qué podemos hacer al respecto?

Google actualiza el algoritmo Panda cada mes aproximadamente, y siempre revisa todas las páginas después de los cambios, de modo que si alguien elimina contenido duplicado y de baja calidad mientras tanto, la calificación de la página puede restablecerse (aunque a veces esto puede llevar más tiempo).
 

2. El algoritmo Penguin

Google Pingvin

Abril de 2012 se introdujeron. Su objetivo es filtrar los perfiles de enlaces no naturales era. Desde la actualización, los enlaces nuevos, pero no naturales, también son una amenaza para la clasificación del sitio web.
El enlace es un voto para el sitio web. Cuanto más fiable sea el sitio, más valioso será. Si tiene muchos enlaces de sitios web de baja calidad, perjudicará la imagen del sitio a los ojos de Google.
 
Al comprobar los enlaces, también es importante tener en cuenta los llamados. texto de anclaje (texto del enlace que lleva al usuario a la página web). Si utiliza un texto de enlace para muchos enlaces, Google percibe que su página es relevante para ese texto. Sin embargo, era muy fácil influir en esto colocando enlaces con palabras clave, y Penguin está diseñado para evitarlo.
 
El algoritmo también es un factor de confianza. Si se obtienen muchos enlaces de sitios poco fiables, esto afectará a la fiabilidad del sitio web y, por tanto, a su clasificación.
 

¿Qué podemos hacer al respecto?

Al igual que Panda, de vez en cuando revisa y evalúa los sitios web. Si el algoritmo ha deteriorado mucho el sitio, debe buscar enlaces no naturales y eliminarlos, o pedir a Google que los ignore al evaluar el sitio: google.com/webmasters/tools/disavow-links-main
 

3. Un algoritmo Colibrí

Google HummingbirdAgosto de 2013 introducido por Google. A diferencia de las otras actualizaciones, este algoritmo de búsqueda afecta a todo el funcionamiento.
 
Su objetivo es ayudar a Google a comprender mejor cómo buscan los usuarios: desde términos de búsqueda de en un contexto determinado intentar interpretarlo y ofrecer la mejor solución posible.
 
Su particularidad es que proporciona una respuesta más inmediata y precisa a preguntas del tipo pregunta-respuesta. Así, si alguien no busca „el mejor restaurante de Budapest”, sino „¿dónde está el mejor restaurante de Budapest?”, obtendrá igualmente una respuesta pertinente a su pregunta.
 

¿Qué podemos hacer al respecto?

Hummingbird es completamente diferente de Panda y Penguin. Estos dos últimos puntúan la fiabilidad de los sitios web (por los enlaces o el contenido), pero si se solucionan los problemas se puede recuperar la confianza de Google. Sin embargo, si un sitio cae por culpa de Hummingbird, hay pocas posibilidades de recuperar la clasificación por palabras clave.
 

Los cambios en el algoritmo están diseñados para animar a los propietarios de sitios y webmasters a crear y publicar el mejor contenido posible. Es importante que el contenido se cree para los usuarios, ya que el objetivo de Google es ayudar a las personas a encontrar lo que buscan. Si podemos responder a las preguntas o búsquedas de la gente, vamos por buen camino.

 
Fuente: moz.com
 
 

¿Te ha gustado el artículo? ¡Puedes compartirlo aquí!