La filtración del algoritmo de Google: Descubre todo aquí

filtracion del algoritmo de google

Rand Fishkin junto con Mike King podrían haber publicado una de las filtraciones de datos más grandes sobre el algoritmo de Google y sus características internas de clasificación como señales para posicionar una web en los primeros puestos.

El documento, según mencionan, ha venido por medio de una fuente anónima (ver más abajo para saber quién es), pero que ha sido verificado por Rand Fishkin en linkedin y contiene una gran cantidad de detalles sobre cómo funciona el algortimo de Google (supuestamente).

Y es que, desde el 13 de marzo, una oleada de documentos internos de Google, que parecen provenir del contenido interno de Google, fue lanzada en GitHub por un bot automatizado llamado yoshi-code-bot y estos documentos fueron compartidos con Rand Fishkin.

GitHub por un bot automatizado llamado yoshi-code-bot

¿Qué opinas sobre esta filtración de google? 🤔👇

¿Cómo funciona el algoritmo de google?

como funciona google

Antes de explicar los principales hallazgos sobre la filtración de google os vamos a explicar cómo funciona el algoritmo. Para ello debees entener que funciona en tres etapas principales: rastreo, indexación y rankeo.

Primero, utiliza programas automatizados llamados «arañas» o «crawlers» para explorar la web, seguir enlaces y recopilar información sobre las páginas. Luego, esta información se organiza y categoriza en un enorme índice de búsqueda. Finalmente, cuando un usuario realiza una búsqueda, Google utiliza su algoritmo de rankeo para ordenar los resultados en función de su relevancia y calidad, evaluando factores como la cantidad y calidad de los enlaces entrantes, la relevancia del contenido, la velocidad de carga de la página y la experiencia del usuario. Este proceso garantiza que los usuarios obtengan los resultados más útiles y relevantes para sus consultas.

Principales hallazgos sobre la filtración de Google

Módulos de clics:

Los documentos mencionan varios módulos como:

  • GoodClicks
  • BadClicks
  • LastLongestClicks
  • UnsquashedClicks

Estos términos indican cómo Google utiliza los datos de clics y la duración de estos para ajustar sus algoritmos de búsqueda. La duración de los clics y las impresiones son elementos cruciales en la evaluación de la calidad de los resultados de búsqueda.

Navboost:

Navboost es un sistema que utiliza datos de navegación para mejorar los resultados de búsqueda. Glue es una extensión de Navboost que abarca todos los elementos de la página que no son resultados web.

Clickstreams del navegador Chrome:

Desde 2005, Google ha buscado obtener datos completos de clics de los usuarios de Internet. Con el lanzamiento de Chrome, Google ha podido capturar estos datos de manera más efectiva, permitiéndoles tener una visión detallada de los hábitos de navegación de los usuarios.

Factores de clásicos de ranking:

PageRank y enlaces de anclaje:

Aunque estos factores han perdido importancia relativa a lo largo de los años, los títulos de las páginas siguen siendo significativos. La filtración sugiere que PageRank ha evolucionado a través de múltiples versiones.

SEO tradicional:

La importancia del SEO tradicional ha disminuido para las pequeñas y medianas empresas y los nuevos creadores de contenido. Los sitios establecidos y las marcas reconocidas tienen una ventaja significativa en los rankings de búsqueda.

E-E-A-T (Experiencia, Experiencia, Autoridad y Confiabilidad):

Aunque Google promueve la importancia de E-E-A-T, la documentación filtrada sugiere que estos factores pueden no ser tan cruciales como se piensa. La identificación de autores y su influencia online pueden proporcionar beneficios en los rankings, pero los elementos exactos que componen E-E-A-T y su impacto real siguen siendo debatidos

💡 Nota: Esto ya lo hablamos en nuestro artículo de tendencias seo 2024 y el camino que llevaba el SEO sobre la influencia o popularidad de las webs

Calidad del contenido y enlaces secundarios:

El contenido y los enlaces juegan un papel secundario cuando la intención del usuario y los patrones de navegación son claros. Google ajusta los rankings para reflejar las preferencias de los usuarios, independientemente de los enlaces o la optimización del contenido.

Otros detalles de cómo funciona el algoritmo de Google según la filtración

A continuación os traemos los principales puntos de la filtración de cómo funciona el algortimo de google:

  • Actualidad: Los documentos indican que esta información es precisa hasta marzo.
  • Características de clasificación: La documentación enumera 2.596 módulos con 14.014 atributos.

¿Cómo acceder a los documentos filtrados del algoritmo de búsqueda de Google?

image 44
  • Ponderación: Los documentos no especifican cómo se ponderan las características de clasificación, solo que existen.
  • Twiddlers: Estas son funciones de reclasificación que «pueden ajustar la puntuación de recuperación de información de un documento o cambiar la clasificación de un documento«, según King.
  • Degradaciones: El contenido puede ser penalizado por diversas razones, como un enlace que no coincide con el sitio de destino, señales de insatisfacción del usuario en las SERP, pornografía, reseñas de productos y ubicación.
  • Historial de cambios: Aparentemente, Google guarda una copia de cada versión de cada página que ha indexado. Sin embargo, Google solo utiliza los últimos 20 cambios de una URL al analizar enlaces.

🤔 Este punto me parece intenresante. Se me ocurre…

  • Importancia de los enlaces: Sorprendentemente, la diversidad y relevancia de los enlaces siguen siendo clave, y el PageRank sigue siendo una característica importante en los algoritmos de clasificación de Google.
  • Clics exitosos importan: Si desea clasificar bien, necesita crear contenido excelente y experiencias de usuario basadas en los documentos. Google utiliza diversas medidas, como hemos mencioando antes: «clics buenos», «clics malos», «últimos clics más largos» y «clics no aplastados».
  • Brand Matters: El mayor consejo de Fishkin es que la marca importa más que cualquier otra cosa, en definitiva, la popularidad. Al final esto coge camino como las redes sociales….
  • Entidades importan: La autoría aún existe. Google almacena información de autor asociada con el contenido y trata de determinar si una entidad es el autor del documento.
  • SiteAuthority: Google utiliza algo llamado «siteAuthority«, a pesar de haber negado tener una puntuación de autoridad de sitio en los últimos años.
SiteAuthority
  • Datos de chrome: Un módulo llamado ChromeInTotal indica que Google utiliza datos de su navegador Chrome para la clasificación de búsqueda.
  • Whitelists: Algunos módulos indican que Google tiene listas blancas para ciertos dominios relacionados con elecciones y COVID.
  • Sitios pequeños: Hay una función para un «sitio personal pequeño«, pero su impacto en la clasificación sigue siendo un misterio.

Cosas a tener en cuenta

Además de los puntos principales, los documentos filtrados proporcionan una serie de hallazgos interesantes adicionales:

  • Frescura importa: Google considera las fechas en la línea de autoría, la URL y el contenido de la página para determinar si un documento es o no un tema central del sitio.
  • Entidades vectorizadas: Google vectoriza páginas y sitios, luego compara los embeddings de la página con los embeddings del sitio.
  • Información de registro de dominio: Google almacena información de registro de dominio.
  • Importancia de los títulos de página: Google mide cómo coincide el título de una página con una consulta de búsqueda.
  • Tamaño de la fuente promedio ponderado: Google rastrea el tamaño de fuente promedio ponderado de los términos en los documentos y en el texto del ancla de los enlaces.

Desglosando los puntos clave del algoritmo de Google

1. Comprensión del impacto de los datos de Chrome:

  • Los datos de flujo de clics de Chrome, recopilados del comportamiento de búsqueda real de los usuarios, son un factor importante en las clasificaciones de búsqueda. Esto significa que Google tiene en cuenta la forma en que los usuarios interactúan con los resultados de búsqueda, como hacer clic en ciertos enlaces y pasar tiempo en páginas específicas.
  • Acciones recomendadas:
    • Analice los datos de flujo de clics para comprender mejor cómo los usuarios interactúan con su sitio web.
    • Optimice su sitio web para mejorar la tasa de clics (CTR) y la experiencia del usuario (UX).

2. Enfocarse en menciones de alto tráfico:

  • Las menciones de su sitio web en sitios web con alto tráfico y autoridad tienen un mayor impacto en las clasificaciones de búsqueda que las menciones en sitios de bajo tráfico.
  • Acciones recomendadas:
    • Identifique y obtenga menciones de sitios web relevantes y de alta autoridad.
    • Cree contenido de alta calidad que atraiga naturalmente enlaces de sitios web de alta calidad.

3. Estrategia de contenido:

  • Invertir en la creación de contenido de alta calidad por parte de autores experimentados y confiables es crucial para mejorar las clasificaciones de búsqueda.
  • Acciones recomendadas:
    • Desarrolle una estrategia de contenido sólida que se alinee con los objetivos de su negocio.
    • Cree contenido informativo, atractivo y útil para su público objetivo.
    • Publique contenido de manera regular para mantener a su audiencia comprometida.

4. Optimización para clics:

  • Diseñar correos electrónicos y contenido que fomenten los clics en los resultados de búsqueda envía señales positivas a Google y puede mejorar sus clasificaciones.
  • Acciones recomendadas:
    • Utilice títulos y meta descripciones atractivos y convincentes.
    • Incluya llamadas a la acción claras en su contenido.
    • Optimice su sitio web para dispositivos móviles.

5. Enfasis en enlaces de calidad:

  • Construir backlinks de alta calidad de sitios web relevantes y confiables es más importante que tener una gran cantidad de backlinks de baja calidad.
  • Acciones recomendadas:
    • Enfoque sus esfuerzos de creación de enlaces en obtener backlinks de sitios web de alta autoridad.
    • Cree contenido valioso y atractivo que naturalmente atraiga enlaces de otros sitios web.
    • Evite las prácticas de creación de enlaces de sombrero negro, ya que pueden dañar su reputación y sus clasificaciones.

6. Aprovechamiento del video y las imágenes:

  • El uso de contenido visual atractivo como videos e imágenes puede mejorar el compromiso del usuario, las clasificaciones de búsqueda y la percepción general de su marca.
  • Acciones recomendadas:
    • Incorpore videos e imágenes de alta calidad en su contenido.
    • Optimice sus imágenes con alt text relevante.
    • Cree videos atractivos e informativos que sean relevantes para su público objetivo.

7. Revisión de la estrategia de enlaces externos:

  • Si bien los enlaces externos aún pueden ser un factor de clasificación, su impacto principal es en la puntuación de spam. Reevalúe el papel de los enlaces externos en su estrategia de SEO.
  • Acciones recomendadas:
    • Enfoque sus esfuerzos de creación de enlaces en obtener backlinks de alta calidad de sitios web relevantes.
    • Elimine o desautorice cualquier enlace externo de baja calidad que pueda estar dañando su reputación.

8. Títulos de página en todo el sitio:

  • Asegúrese de que los títulos de las páginas de su sitio web estén optimizados con palabras clave relevantes y descriptivas, ya que esto puede afectar las clasificaciones de búsqueda para todo el sitio.
  • Acciones recomendadas:
    • Cree títulos de página únicos y atractivos para cada página de su sitio web.
    • Incluya palabras clave relevantes en sus títulos de página de manera natural.
    • Mantenga la longitud de sus títulos de página entre 60 y 80 caracteres.

9. Experimentación con menciones:

  • Las menciones de su marca o sitio web en foros, redes sociales y otras plataformas online pueden ser señales de clasificación potenciales. Explore cómo puede aprovechar las menciones para mejorar su SEO.
  • Acciones recomendadas:
    • Supervise las menciones de su marca y sitio web en línea.
    • Responda y participe en menciones relevantes de manera positiva y útil.
    • Cree un programa de embajadores de marca para alentar las menciones positivas.

Reacciones y Observaciones

  • Legitimidad de los documentos: Tras un breve análisis de los documentos y la documentación de la API, parece que estos son legítimos, según Barry Schwartz, un veterano en el mundillos sobre el seguimiento de los desarrollos de Google durante más de 20 años.
  • Comentarios de google: Hasta el momento, no ha habido comentarios públicos por parte de empleados de Google sobre esta filtración. Es un tema nuevo y queda por ver si habrá alguna declaración oficial al respecto.
  • Paralelos con otras filtraciones: Este evento recuerda un poco a la filtración de los factores de clasificación de búsqueda de Yandex en 2023, que también reveló información sensible sobre cómo funcionaba el motor de búsqueda de esa empresa.

Pero si quieres saber más reacciones, os mostramos algunas publicaciones en las redes sociales sobre este asunto:

Lee las historias completas de las fuentes⛲👇

SparkToro: una fuente anónima filtró más de 2500 páginas de documentos de la API de búsqueda de Google, revelando detalles internos sobre las operaciones de búsqueda de Google… 

⛲ iPullRank: se filtró documentación interna para la API Content Warehouse de la Búsqueda de Google, que revela información sobre los factores y sistemas de clasificación de Google… 

SE round table: Rand Fishkin y Mike King han publicado una importante filtración de datos sobre las funciones y señales de clasificación interna de la Búsqueda de Google… 

Search Engine Land: un tesoro de documentos filtrados de Google ha revelado elementos clave del algoritmo de clasificación de Google. Miles de documentos internos compartidos con Rand Fishkin… 

Aleyda Solís: La documentación de ingeniería interna de Google Search fue filtrada y analizada por Michael King. Los documentos revelan características de clasificación de 14.000… 

Search Engine Land: «Cómo avanza el SEO con la filtración de la API de Google Content Warehouse«. Mike King analiza en profundidad las preguntas, críticas y preocupaciones más comunes que surgieron tras la masiva filtración de la documentación de la búsqueda de Google. Explica cómo estos nuevos descubrimientos deberían influir en la forma en que los profesionales de SEO abordan sus estrategias y tácticas.

Rand Fishkin: «La fuga de la API de Google debería cambiar la forma en que los especialistas en marketing y los editores hacen SEO«. Aquí expone los descubrimientos más significativos obtenidos del documento filtrado de Google y explica cómo estos hallazgos están afectando y modificando sus estrategias de marketing. A través de su análisis, proporciona ejemplos concretos de cambios tácticos y estratégicos que ha implementado.

Search Engine Land: «Rand Fishkin en MozCon: repensar las estrategias en medio de la “fuga” de la API de Google«. En su presentación en MozCon, Rand Fishkin compartió recomendaciones detalladas basadas en las filtraciones supuestas de Google. Sugiere tácticas SEO clave, como priorizar la autoridad del autor y combinar la construcción de enlaces con estrategias de relaciones públicas (PR).

Search Engine Land: «Descomprimiendo la filtración masiva de documentación de búsqueda de Google«. Andrew Ansley realiza un desglose exhaustivo de los posibles factores de ranking de búsqueda de Google revelados en la filtración. Incluye detalles sobre las variaciones de PageRank, métricas de autoridad del sitio y otros elementos cruciales que pueden influir en el posicionamiento de los sitios web.

Digital Oft: «¿Qué significa la última filtración de documentación de Google para las relaciones públicas digitales?«. Liv Day y James Brockbank analizan los hallazgos relacionados con los backlinks y sus implicaciones para los profesionales del link building y el PR digital. Exploran cómo estos nuevos conocimientos pueden cambiar las estrategias de adquisición de enlaces y la gestión de la reputación online.

MOZ: «Cuatro ideas de la filtración de Google: viernes de pizarra«. En este episodio de Whiteboard Friday, Tom Capper presenta cuatro insights específicos derivados de la reciente filtración de documentación de Google. Aborda temas como el flujo de clics (clickstream), la autoridad del sitio (siteAuthority), la búsqueda de marca y la información sobre las despromociones (demotions).

Ahrefs: «Documentos de Google filtrados y los SEO están haciendo algunas suposiciones descabelladas«. Patrick Stox advierte sobre los peligros de interpretar el documento filtrado de Google basado en experiencias personales y sesgos. Detalla algunas interpretaciones erróneas comunes que ha identificado y proporciona recomendaciones sobre cómo abordar la información con una mentalidad crítica y objetiva.

Near Media: «Implicaciones de la búsqueda local de la fuga de API de Google«. David Mihm ofrece un resumen detallado de las implicaciones del SEO local derivadas de la filtración de la API de búsqueda de Google. Discute cómo estos nuevos datos pueden afectar las estrategias locales de SEO y proporciona consejos prácticos para adaptarse a estos cambios.

Marketmuse: «Aprovechando la API de Content Warehouse de Google para la anotación estructurada, análisis semántico y etiquetado de características«. Jeff Coyle explica cómo utilizar la filtración de la API de Content Warehouse de Google para desarrollar un producto que realice análisis semántico avanzado, extracción de entidades y mapeo de relaciones. Ofrece una guía práctica sobre cómo aplicar estos conocimientos para mejorar la estructura y el análisis de contenido, destacando las herramientas y técnicas más efectivas para aprovechar estas capacidades. Coyle también proporciona ejemplos de aplicaciones prácticas en diversos sectores.

Newzdash: «Filtración de Google: 71 factores de ranking de noticias revelados e impacto en los editores de noticias«. John Shehata desglosa los puntos clave de la filtración de Google, centrándose en los 71 factores de ranking que afectan específicamente a los editores de noticias. Proporciona un análisis detallado de cómo estos factores pueden influir en el posicionamiento de contenido noticioso y ofrece recomendaciones estratégicas para los editores. Shehata también discute cómo los editores pueden adaptar sus estrategias de contenido y SEO para maximizar la visibilidad y el impacto en los motores de búsqueda.

Search Engine Land: 2,596: Cómo sacar el máximo provecho de los factores de ranking filtrados de Google: Kevin Indig proporciona insights detallados sobre los factores de ranking filtrados de Google y explica cómo estos pueden ser utilizados para mejorar las estrategias y experimentos de SEO. Ofrece ejemplos concretos y consejos prácticos para aprovechar al máximo esta información en la optimización de motores de búsqueda. Indig también analiza las posibles implicaciones de estos factores en el futuro del SEO y cómo los profesionales pueden prepararse para adaptarse a estos cambios.

Search Ranking Factors: «Base de datos de factores de ranking del algoritmo de búsqueda filtrados de Google«. Mahendra Choudhary y Swapnil Pate han creado una base de datos fácil de usar y buscar que incluye las posibles señales presentadas en el documento filtrado de Google. Cada entrada proporciona una descripción breve del factor, su significado potencial, un peso estimado, área de enfoque y cómo interpretarlo en el contexto de los rankings de búsqueda. Esta herramienta es esencial para los profesionales de SEO que buscan entender y aplicar estos factores en sus estrategias de optimización.

2596: «Fuga del algoritmo de búsqueda de Google«: Matt Hodson presenta un sitio web que ofrece una interfaz de búsqueda y resúmenes potenciados por IA para cada uno de los módulos del documento filtrado de la API de búsqueda de Google. Ayuda a los usuarios a profundizar en los detalles específicos de la filtración, proporcionando análisis detallados y recomendaciones sobre cómo utilizar esta información para mejorar las estrategias de SEO. El sitio también ofrece herramientas interactivas para explorar y comprender mejor los datos filtrados.

Dixon Jones: «Lista de señales de ranking de Google buscable«. Dixon Jones ha creado una tabla buscable que incluye las variables del documento de la API de búsqueda de Google. Facilita la búsqueda y análisis de las diferentes señales de ranking reveladas en la filtración, proporcionando una herramienta útil para los profesionales de SEO que buscan optimizar sus estrategias basándose en estos datos. La tabla incluye descripciones detalladas y recomendaciones sobre cómo interpretar y aplicar cada señal en el contexto de SEO.

DRIVE: Factores de ranking de SEO local de los documentos filtrados de la API de Google: Andrew Shotland proporciona una lista de la información relacionada con SEO local encontrada en el documento de la API de búsqueda de Google. Esta lista detalla los factores específicos que afectan el ranking local, proporcionando insights valiosos sobre cómo optimizar las estrategias de SEO local para mejorar la visibilidad en los resultados de búsqueda locales. Shotland también ofrece consejos prácticos para implementar estos factores en las campañas de SEO.

En definitiva…

El documento es un llamado a la acción para toda la comunidad del SEO. Los profesionales, donde me incluyo, nos toca ahora investigar y publicar los posibles hallazgos basados en esta filtración… o no,jjjjj.

Y es que, la filtración no solo revela cómo Google utiliza los datos de clics y los patrones de navegación, sino también cómo ha evolucionado el algoritmo a lo largo del tiempo y su impacto en el sector del SEO. ¿Podremos descubrir ahora con exactitud la fórmula mágica para llegar siempre al Top 1?

▶ Te puede interesar: Todos los algoritmos de google

Consultor SEO / GEO & Estratega de Búsqueda IA | CEO en Netbulb Pionero en la transición del SEO tradicional hacia la Optimización para Motores Generativos (GEO). Como CEO de Agencia Netbulb y docente universitario, fusiono la ciencia de datos, la teoría de grafos y la semántica web para descifrar cómo las Inteligencias Artificiales (LLMs) interpretan y citan la información. Alejado de las métricas de vanidad, mi enfoque se basa en metodologías Data-Driven y análisis de Common Crawl, ayudando a las marcas a convertirse en entidades de autoridad dentro de los Grafos de Conocimiento de Google y los nuevos ecosistemas de búsqueda conversacional. Autor de investigación sobre topología web y visibilidad algorítmica.