Olvida el cliché – optimización de motores de búsqueda (SEO) está muerto Definitivamente todavía existe.
Y, para que quede constancia, Google ahora puede determinar la diferencia entre un sitio web que merece una clasificación y uno que no debería, ¡mejor que nunca!
Atrás quedaron los días de las tácticas de manipulación de clasificación que tenían como objetivo aumentar las posiciones de las palabras clave en los resultados de búsqueda. En su lugar, hoy en día, Google utiliza su cartera de «algoritmos» y «programas de aprendizaje automático» para encontrar, resumir y mostrar páginas relevantes de resultados web que coincidan con la necesidad de una consulta de búsqueda del usuario.
Ya sea que ayude a un grupo de clientes o ejecute sus propios sitios, una comprensión profunda de cómo funciona Google puede catapultar el tráfico del sitio web y ver que los competidores quedan atrás. El truco es entender cómo y por qué Google elige clasificar los sitios web.
Antes de saltar a esta publicación, es importante comprender primero qué es un «algoritmo» de búsqueda y cómo funciona Google; comencemos.
En lenguaje sencillo…
Un algoritmo de búsqueda es un proceso o conjunto de reglas que utilizan los motores de búsqueda para determinar el significado de una página web. Los algoritmos se utilizan para filtrar, digerir y evaluar páginas web para garantizar que los resultados de búsqueda coincidan con la consulta de búsqueda de un usuario.
A medida que Internet ha crecido de manera exponencial, Google ha tenido que convertirse en una máquina de filtrado de datos. Para ofrecer resultados que coincidan con la consulta de búsqueda de un usuario, Google utiliza una serie de reglas y procedimientos complejos (es decir, algoritmos) para buscar, filtrar y resumir páginas web de Internet para su propio «índice». Este es el «índice» de páginas web que Google utiliza cuando muestra resultados de búsqueda relevantes.
Recuerde, Google no es Internet y, en cambio, debe verse como una «puerta de enlace», lo que ayuda a los usuarios a encontrar información actualizada y precisa una y otra vez. Como el motor de búsqueda «ir a», Google domina la industria, ¡procesando más de 3.5 mil millones de búsquedas en todo el mundo todos los días! Con tanta demanda de los usuarios y el potencial de poder hacer o deshacer sitios web y negocios, está claro que invertir el tiempo para cooperar e impresionar los algoritmos de Google es una situación beneficiosa para usted o para los sitios web de sus clientes.
Continuemos para aprender más sobre cuatro de los algoritmos de clasificación más importantes de Google y lo que puedes hacer para obtener sus buenos libros.
Algoritmo panda
TLDR: A Panda le encanta leer y digerir información. Intente crear contenido que responda a las consultas de búsqueda de usuarios y nunca copie de otros. Capte la atención de Panda con contenido de formato largo que es diez veces mejor que el de la competencia, pero no agregue páginas con «pelusa» si no es necesario. Si ejecuta un sitio de comercio electrónico, concentre su esfuerzo en crear páginas de productos de alta calidad que merezcan una clasificación.
Que es el panda
Lanzado por primera vez en febrero de 2011, el algoritmo Panda de Google crea un «puntaje» de página web basado en un rango de criterios de calidad que se centra principalmente en el contenido y se actualiza regularmente. Originalmente creado para comportarse como un «filtro de clasificación» para tamizar sitios con contenido plagiado o delgado de los resultados de búsqueda, Panda se incorporó posteriormente al algoritmo de clasificación central a principios de 2016. Las métricas centradas en el contenido del algoritmo han continuado proporcionando una columna vertebral importante dentro de la clasificación de Google factores que ayudan a proporcionar resultados de búsqueda que brindan información útil una y otra vez, manteniendo a Google como el motor de búsqueda en la web.
¿Como funciona?
Al igual que el pelaje y las marcas del animal, a Panda le gusta ver contenido grueso y de calidad que es único. El algoritmo entiende la duplicación de contenido en una página por nivel de página (tanto internamente como en otros sitios) y ciertamente no aprecia el relleno de palabras clave. Los sitios web con muchas páginas duplicadas o contenido de baja calidad pueden recibir disminuciones de clasificación, lo que a su vez reducirá el tráfico a medida que Google comienza a devaluar el dominio. Las páginas con contenido de alta calidad que responden a las consultas de búsqueda de usuarios deben serrecompensadas con posiciones de mayor rango. Sin embargo, este no es siempre el caso, especialmente en los mercados en línea donde hay mucha competencia y otros factores de clasificación tienen más prioridad, como la equidad de dominio y los vínculos de retroceso.
Cómo asegurarse de no ser penalizado
Los webmasters, los gerentes de SEO y los propietarios de sitios web pueden hacer una diferencia cuando se trata de mantenerse en el lado correcto de Panda. Dado que el algoritmo se actualiza continuamente, es importante llevar a cabo siempre las estrategias de contenido de mejores prácticas para proteger su sitio web de futuras actualizaciones. Siga estas tres estrategias de contenido para mantenerse por delante del juego …
- Asegúrese de que el contenido que publica sea 100% único, nunca «gire» o copie contenido.
- No cree páginas con contenido delgado o duplicado: siempre intente escribir un mínimo de 200 palabras por página. Escribir «algo» de contenido siempre es mejor que no tener contenido.
- En el caso de que las páginas sin contenido no puedan actualizarse con más texto, debe considerar su exclusión del índice de Google para reducir la exposición negativa. Esto puede llevarse a cabo mediante la edición del archivo robots.txt de un sitio web o la configuración de edición dentro de complementos de SEO como Yoast SEO .
Aquí hay un gran ejemplo de página web donde Panda podría activarse debido a que hay poco o ningún contenido de la página. La página contiene muchos códigos y no proporciona ningún valor en el índice de Google.

Consejo profesional: para páginas donde existe poco o ningún contenido, intente incorporar contenido basado en responder a preguntas comunes de los usuarios o, en su lugar, desindexe estas páginas en su archivo robots.txt.
Algoritmo pinguino
TLDR: A Penguin le encanta ver relaciones de confianza entre los sitios. Manténgase alejado de la bofetada de Penguin mediante la creación de vínculos genuinos y de calidad con otros a través de Internet. Al igual que en el mundo real, no hay un atajo rápido para construir relaciones sólidas. Si está ejecutando estrategias de construcción de enlaces , asegúrese de revisar los vínculos de retroceso de su sitio web regularmente para mantener su huella limpia, ordenada y natural.
¿Qué es el pingüino?
Lanzado por primera vez en abril de 2012 y posteriormente incorporado (como Panda) en el algoritmo de clasificación central en 2016, el algoritmo Penguin de Google es un filtro de procesamiento de datos independiente en tiempo real, ubicación e idioma que apunta a descubrir y devaluar sitios web con vínculos de retroceso que pueden considerarse manipulables. o antinatural. Las actualizaciones continuas de Penguin han cambiado considerablemente la industria de SEO y hoy en día, participar en tácticas obsoletas puede dejar a los sitios web penalizados e incluso retirados del índice de Google. El enfoque exclusivo de los algoritmos en los vínculos de retroceso ahora garantiza que los administradores de SEO y los webmasters creen y atraigan vínculos de retroceso de alta calidad que se consideran un fuerte «voto de confianza» entre los sitios web.
¿Como funciona?
Al igual que los grupos de pingüinos, al algoritmo le gusta ver relaciones de «enlace» de confianza en los sitios web. A pesar del ruido de la industria, la construcción de enlaces de alta calidad sigue siendo una de las tácticas más importantes para impulsar los aumentos de clasificación y Penguin vigila de cerca que los sitios web no manipulen el sistema. Al ejecutarse en tiempo real, Penguin se pone en marcha cuando los sitios crean volúmenes amenazadores de enlaces en un corto espacio de tiempo, pagan por enlaces patrocinados o llevan a cabo técnicas de spam black-hat. El algoritmo también supervisa los perfiles de » texto de anclaje «, ya que estos también pueden ser orquestados inteligentemente para influir en las clasificaciones. Manipular a Penguin mediante la ejecución de tácticas poco éticas podría resultar en una gran pérdida de tráfico en el sitio web.
Cómo asegurarse de no ser penalizado
En palabras de Google : «Evite los trucos destinados a mejorar las clasificaciones de los motores de búsqueda. Una buena regla general es si se sentirá cómodo explicando lo que le hizo a un empleado de Google «. Para permanecer en los buenos libros de Penguin, debe crear vínculos que desee que existan y no solo porque tiene un objetivo final a corto plazo. Si usted es un «novato» de construcción de enlaces o desea cambiar su forma de ser, recuerde que siempre debe acercarse a la construcción de enlaces con el lema de «ganancia de enlaces». Esto significa construir enlaces que nunca querrías eliminar.
¿Ha notado una caída reciente en el tráfico o está preocupado por ser penalizado? Mantén la calma, puedes actuar antes de que sea demasiado tarde. Las herramientas de perfiles de backlinks pagadas, como Majestic, ahrefs y Link Research Tools, lo ayudarán a evaluar la huella de un sitio web y resaltar las áreas a mejorar.
Para medir rápidamente los niveles de enlaces de spam que rodean un dominio, debe revisar el desglose del texto de anclaje. Usando la herramienta de Majestic, aquí hay un gran ejemplo de un sitio que parece tener una lista de los 10 principales no naturales que destaca muchos enlaces de spam.

Consejo profesional: los perfiles de texto de anclaje deben ser naturales y contener principalmente palabras clave relacionadas con la marca, el producto o el servicio. Si ve un mensaje de spam o un texto de anclaje no relacionado en su lista de los 10 principales, esto podría ser motivo de preocupación y debe investigarse de inmediato.
Algoritmo de colibrí
TLDR: Hummingbird está listo y esperando para alimentarse en tu sitio web como un dulce néctar. Intente atraer la atención creando páginas que coincidan con la «intención de búsqueda» del usuario. Explore posibles sinónimos y busque palabras clave de cola más larga con menos competencia. Aprende de los competidores que pueden estar superándote. Si se esfuerza por escribir contenido, responda las preguntas comunes de los clientes de una manera natural y atractiva: aquí hay un gran ejemplo .
¿Qué es el colibrí?
Lanzado por primera vez en septiembre de 2013, el algoritmo Hummingbird de Google cambió significativamente la forma en que el motor de búsqueda interpretaba las consultas y recompensas de los sitios web que responden a la frase de búsqueda de un usuario. La introducción de Hummingbird cambió los sitios web para enfocarse en hacer coincidir la «intención de búsqueda» de un usuario en lugar de simplemente intentar clasificar una palabra clave o frase. El objetivo final de este nuevo algoritmo fue ayudar a Google a comprender mejor el «qué» detrás de una consulta de búsqueda de un usuario, en lugar de mostrar resultados basados en un nivel amplio, en base a palabras clave. En resumen, Hummingbird ayuda a los usuarios a encontrar lo que quieren, además de permitir que Google encuentre, filtre y muestre resultados que se centran con mayor precisión en el significado de una consulta.
¿Como funciona?
Al igual que el pájaro que lleva su nombre, el algoritmo se reconoce al instante cada vez que se muestra una página de resultados de Google. Puede ver Hummingbird en acción en la parte inferior de Google donde se muestran otros resultados «relacionados con el tema» que no necesariamente contienen las palabras clave de la consulta de búsqueda original. Hummingbird no es un algoritmo basado en la pena. En su lugar, analiza las consultas largas y largas para deshacer la «intención» , tiene en cuenta la relevancia más amplia de cada búsqueda y premia a los sitios que utilizan sinónimos naturales y palabras clave de larga cola. Hummingbird no solo entiende cómo se comportan las diferentes audiencias web, el algoritmo también puede reconocer rápidamente lo que un buscador está buscando, al mostrar sugerencias relacionadas en el cuadro de búsqueda antes de mostrar los resultados.
Para consultas de búsqueda no reconocidas (¿sabías que aproximadamente el 15% de todas las búsquedas diarias de Google nunca se han buscado antes?) Google aprovecha el poder de su algoritmo de inteligencia artificial (AI), Rankbrain. Lanzado en abril de 2015, esta supercomputadora de aprendizaje automático no solo descifra la «intención» de las nuevas consultas, sino que también filtra los resultados mostrados en consecuencia. Puedes leer más sobre el algoritmo Rankbrain de Google aquí .
¿Qué puedo hacer para llamar su atención?
En última instancia, los sitios web que implementan una combinación de los criterios de los algoritmos deberían ver un aumento significativo en el tiempo extra. Si su sitio actualmente está clasificándose mal dentro de su nicho, existe una alta probabilidad de que Hummingbird tenga alguna influencia sobre su posición. Trate de construir bases sólidas “compatibles con el colibrí” al comienzo de cualquier proyecto digital, ya que esto dará dividendos. Esto puede incluir; incorporando respuestas conversacionales a preguntas dentro del contenido ( aquí hay un gran ejemplo de esto ), incluyendo sinónimos y palabras clave o frases de cola larga. Para encontrar sinónimos, Ubersuggest es un gran lugar para comenzar. Además, los resultados de búsqueda relacionados con Google siempre vale la pena mirar y no olvides revisar la competencia que está por encima de ti.
Este es un gran ejemplo de un sitio web de comercio electrónico que genera contenido basado en preguntas comunes de los clientes. Esto ayuda a Hummingbird a comprender la relevancia del sitio web.

Consejo profesional: antes de escribir o crear nuevas páginas web, responda las siguientes preguntas: ¿cuál es el propósito de esta página? ¿Qué está tratando de apuntar? La determinación temprana del propósito da tiempo para buscar posibles sinónimos, palabras clave de cola larga y para explorar la competencia.
Algoritmo de paloma
TLDR: Pigeon está lista para ofrecer mejores resultados locales cuando empieces a alimentarlo. Aproveche Google My Business y obtenga una lista en algunos directorios locales en línea genuinos y de confianza, como Yelp . Al crear contenido, intente utilizar texto e imágenes que estén asociados de manera distintiva con una ubicación o área. Si ejecuta un negocio basado en servicios, asegúrese de que está generando opiniones de usuarios , esto le ayudará a diferenciarse de la multitud local.
¿Qué es la paloma?
Lanzado por primera vez en agosto de 2013, se lanzó el algoritmo Pigeon de Google para proporcionar mejores resultados para las búsquedas locales. Antes de Pigeon, los resultados de la búsqueda local de Google produjeron una mezcla de información y se necesitaba una actualización para incorporar la ubicación y la distancia como factores importantes al mostrar los resultados. Posteriormente, Google redujo el número de resultados de negocios locales mostrados de 7 a 3, haciendo que la exposición local sea aún más difícil. Sin embargo, el algoritmo combinó efectivamente los resultados de búsqueda de Google con las búsquedas de Google Map y puso en movimiento una forma más cohesiva para que los sitios web clasifiquen orgánicamente para búsquedas locales .
¿Como funciona?
Al igual que la capacidad de navegación de las palomas mensajeras, el algoritmo se basa en gran medida en la recopilación de datos sobre la ubicación y la distancia de un usuario antes de mostrar los resultados de búsqueda (estos datos deben compartirse con Google; de lo contrario, los resultados se basan solo en palabras clave). Pigeon es un gran ejemplo de Google en un mundo » móvil primero «, que se esfuerza por ofrecer resultados de búsqueda relevantes durante cada interacción posible. Aunque no es posible manipular dónde los clientes potenciales pueden usar Google, Pigeon ahora toma más en cuenta los listados de directorios locales, las revisiones y la reputación local cuando clasifica los resultados. Este algoritmo no penaliza los sitios web, sino que se centra en dar prominencia a los sitios que merecen ser listados localmente.
Nota: Pigeon solo está afectando actualmente los resultados de búsqueda en el idioma inglés.
Cómo asegurarse de que se notará a nivel local
A Pigeon le encanta ver las relaciones locales y recompensa la consistencia de los datos en Internet. Es importante centrarse en el SEO fundamental que incorpora palabras clave basadas en la ubicación y asegurarse de aprovechar las listas de Google My Business. Si desea realmente impresionar a Pigeon, trabaje en la creación de listados de directorios de alta calidad con datos consistentes y trabaje arduamente para establecer revisiones positivas generadas por los usuarios. Con tantas empresas locales que ahora dependen en gran medida de Google para impulsar el tráfico y las ventas, una comprensión profunda de este algoritmo ayudará a crear un espacio muy necesario entre la competencia local.
Este es un gran ejemplo de una empresa local que se ha beneficiado de Google My Business y publica contenido basado en palabras clave locales. Esto ayuda a Pigeon a comprender la ubicación de los clientes potenciales.

Consejo profesional: para los sitios web que dependen en gran medida del tráfico local, es importante tratar el SEO local como su reputación local. Recuerde proporcionar los mismos datos a través de Internet, ser serio con las revisiones y ayudar al algoritmo Pigeon a comprender la ubicación de su audiencia con contenido específico.
Conclusión
Obtener una comprensión más profunda de cómo Google clasifica los sitios web lo ayuda a pasar tiempo en las áreas donde el cambio puede afectar más el rendimiento. Es importante recordar que aumentar las clasificaciones de sitios web es un proceso largo que requiere orientación estratégica, y cumplir con los criterios de los algoritmos de Google a veces puede ser un proceso difícil. Sin embargo, al mismo tiempo, alineándose con las expectativas de cada algoritmo, se genera la estrategia necesaria para tener éxito en línea. Ejecutar tácticas con el objetivo de impresionar los algoritmos de Google es siempre la mejor estrategia, ya que en última instancia, crean las reglas que pueden hacer o deshacer cualquier logro futuro.
Es inevitable que Google esté siempre actualizando y ajustando sus algoritmos. Incluso como el motor de búsqueda en Internet más dominante, Google continuamente mueve el bote para interrumpir la industria de SEO, mejorar los resultados de búsqueda y mantenerse por delante de su propia competencia. Esto se debe a que en el momento en que un usuario no obtiene la respuesta que está buscando, es posible que utilice otro motor de búsqueda. Con el tiempo, si las búsquedas en Google disminuyen, también lo hacen sus enormes ingresos de Google Ads, por lo tanto, lo mejor para el motor de búsqueda es mantener y mejorar los resultados de búsqueda de forma continua.
Los cuatro algoritmos cubiertos en esta publicación son solo una parte de los algoritmos de clasificación de Google. En total, hay más de 200 factores de clasificación que se examinan en una amplia gama de algoritmos sofisticados y programas de aprendizaje automático. En última instancia, son estos algoritmos los que deciden dónde se debe clasificar una página web en los resultados de búsqueda. Las actualizaciones continuas desde las perspectivas tanto técnicas como de comportamiento requieren la necesidad esencial de mantenerse al día con el tiempo.
Si está interesado en mantenerse al día con las últimas actualizaciones de algoritmos de Google y asegurarse de que sus clientes o sus propios sitios suban en los rankings de búsqueda y eviten posibles pérdidas de tráfico, aquí hay algunos recursos para marcar:
- MOZ Actualizaciones de Google : muestra actualizaciones que se remontan al año 2000
- Sensor SEMRUSH : muestra un gráfico diario de la velocidad de clasificación de búsqueda
- Search Engine Land – destaca noticias de Google, actualizaciones y comunicados de prensa