Es uno de los conceptos que más se repite cuando trabajas en el posicionamiento web, especialmente en SEO. Sin embargo, no siempre hay claridad en la utilidad de los algoritmos de búsqueda. En este artículo, lo explicamos.
Los algoritmos de búsqueda son programas informáticos que buscan información para entregar una respuesta exacta. Si lo llevamos a la práctica, es cuando un usuario ingresa a un motor de búsqueda y escribe una palabra clave o frase, y Google le da respuestas.
Lo que ese usuario desconoce es que para esa consulta existen millones de opciones que podrían sugerir una potencial respuesta. Con los algoritmos de Google, esas páginas son tomadas por el robot y ordenadas según una serie de “señales” informáticas.
Además, como las búsquedas de los usuarios van evolucionando, Google también se actualiza. En Inside Search lo explican claramente:
Nuestro objetivo es conseguir que obtengas la respuesta que estás buscando más rápidamente, creando una conexión casi perfecta entre el usuario y el conocimiento que este busca.
¿Qué proceso sigue Google para idear una nueva mejora en los algoritmos? Según su sitio web, la compañía cuenta con una metodología clara:
Un cambio algorítmico típico comienza como una idea acerca de cómo mejorar la búsqueda. Adoptamos un enfoque basado en datos y todos los cambios propuestos se someten a una amplia evaluación de la calidad. Los ingenieros suelen comenzar con una serie de experimentos, retocando variables y obteniendo la opinión de colegas, hasta que están satisfechos.
¡Y así surge la magia!
LA LUCHA CONTRA EL SPAM
Sin embargo, no todo es tan fácil ni tan mágico. El gran problema de Internet es el spam que entorpece la obtención de resultados óptimos. Los algoritmos de búsqueda ayudan a frenar el posicionamiento de sitios que usan malas prácticas.
Cada algoritmo cuenta con directrices que hacen posible que los sitios logren o este posicionamiento, obligándolos a mejorar su calidad. A continuación, te presentamos los principales algoritmos.
Panda
Es un algoritmo que en su salida en 2011 afectó a más de un 12% de los resultados de búsqueda. Cuando optimices un sitio, ten en cuenta que Panda prioriza la calidad, originalidad y el aporte para el usuario. Además, debes evitar el exceso de enlaces y la publicidad.
Penguin
Fue lanzado en 2012 para penalizar los enlaces entrantes de spam en los sitios web de baja calidad, la compra de enlaces y las granjas de links. Para optimizar tu sitio, elimina los enlaces negativos con la herramienta de desautorizar enlaces de GWT.
Según diversas fuentes profesionales de Search, este algoritmo tiene updates “fantasmas”, pero aún no ha sido confirmado por Google.
Humming bird
Fue lanzado el 2013 y es un update de Caffeine. Este algoritmo nos invita a realizar cambios a nivel de búsqueda semántica, con el fin de brindar resultados más precisos y con mayor rapidez. Esto implica tanto cambios a nivel técnico como en contenido, donde la forma de utilizar palabras es la clave.
Junto con esto, generó la inclusión del Knowledge Graph en el buscador. Este es un método para hacer más eficiente la búsqueda de los usuarios, dándole una visión completa de la información asociada a la búsqueda.
Pigeon
En funcionamiento desde 2014, está enfocado en presentar al usuario resultados de búsqueda locales útiles, relevantes y precisos. Afecta principalmente la plataforma de Maps y los resultados de búsqueda web tradicionales.
Ahora que ya conoces los grandes algoritmos, debes saber que no se reemplazan los unos a otros. Estos se complementan en su trabajo, porque actúan en conjunto para mejorar la calidad del contenido web. Fuente ida.cl