Este es un artículo 100% copiado y pegado de la web TraficoPlus, concretamente es este sobre los 204 factores del algoritmo de google.

Esta practica de copiar y pegar es totalmente desaconsejable, pero lo hago ya que es un artículo que me interesa tener fácilmente localizable, así lo tengo a mano para repasar de vez en cuando.

algoritmo de google

Factores Relacionados al Dominio

Estos factores son los que afectan a la autoridad y calidad de un dominio, lo cual ayuda indirectamente a mejorar la relevancia de todo un sitio.

1. Edad de Dominio: Mientras mayor sea la edad de un dominio (esto es, el tiempo que transcurrió desde que éste fue comprado), mejor.

Sin embargo, Matt Cutts confirmó en este video que hoy en día este factor no es tan importante. A Google le importa más cuándo fue la primera vez que sus bots (también conocidos como spiders) exploraron una página web, que la edad del dominio, cuya información es más difícil de encontrar.

Matt Cutts dice: “Si tu página web ha existido por un par de meses, ésta debería aparecer en los resultados de búsuqeda“.

2. Aparicion de la Palabra Clave en el Dominio Principal: En su momento, tener un dominio con la palabra clave solía ser una de las mejores y más efectivas formas de posicionar una página web. Hoy en día ya no es tan así, ya que Google ha descubierto que éste es uno de los tantos factores que han sido manipulados por los SEOs black hat.

Sin embargo, este factor sigue teniendo algún tipo de valor, ya que todavía se han observado páginas con palabras clave en el dominio principal en nichos competitivos.

3. Aparicion de la Palabra Clave en el Dominio: Este factor, similar al anterior, sigue teniendo vigencia. A pesar que en el 2011 este factor era uno de los que los expertos consideraban como importantes, hoy en día ha perdido algo de relevancia. En el último estudio realizado por Moz, se ha encontrado una correlación intermedia entre este factor y buenos rankings.

4. Tiempo de Registración previa al Vencimiento del Dominio: Este factor está directamente relacionado con el primero. Con respecto a este factor, una patente de Google registrada en el 2005 dice lo siguiente:

Los dominios legítimos son usualmente pagados por adelantado por muchos años, mientras que los ilegítimos son raramente usados por más de un año. Por ende, la fecha en la que un dominio vence en el futuro puede ser tomado como un factor para predecir la legitimidad de un dominio.

Esto tiene total sentido. No significa que si uno registra un dominio por 10 años, éste va a tener mayor autoridad que uno que le faltan 6 meses para su expiración. Yo creo que tiene más que ver con una cuestión de separar aquellos dominios ilegítimos, de los legítimos, nada más.

5. Uso de la Palabra Clave en el Subdominio: Este factor es muy similar al segundo, y como éste último, pareciera que se ha encontrado una correlación entre páginas con buenas posiciones, y palabras clave en el subdominio.

6. Historia de Dominio: Un dominio con muchos cambios de dueño, no es considerado de calidad a los ojos de Google. Esto está muy relacionado con el factor #4.

7. Tipo de Concordancia del Dominio: Este factor dice que tener un dominio que tenga una concordancia exacta con la palabra clave a posicionar ayuda al posicionamiento.

Si, por ejemplo, quisieras posicionar la palabra clave “hosting barato”, y tu dominio es “hostingbarato.com”, tendrías más chances de posicionar esa palabra clave.

Este factor solía ser la moda entre los SEOs “black hat” hace algunos años, porque solía proveer buenos “saltos” en las posiciones. Sin embargo, Matt Cutts anunció en Septiembre del 2012 que Google estaría cambiando ligeramente su algoritmo para que ésto no siga sucediendo. Este cambio se lo llamó “Google EMD Update“, o “Actualización de Dominio de Concordancia Exacta de Google“.

8. Whois Público o Privado: Es importante tener un dominio con whois público, para demostrarle a Google que tu sitio es legítimo.

A su vez, es bien sabido que los SEOs “black hat” esconden su información Whois, lugar donde aparece toda la información del webmaster.

Ésta no es una mala medida si tu dominio tiene, de alguna manera, una historia de intentos de hackeo muy fuertes. Pero esto no es común, a menos que trabajes en un nicho muy sucio y competitivo, como el farmacológico, o el de las apuestas. Y como sabrás, estas páginas nunca poseen autoridad de ningún tipo.

Por ende, es lógico que Google crea que aquellas páginas que esconden su información Whois no son legítimas.

9. Historial del Dueño de Dominio: Si Google descubre que una página tiene un dueño con historial de spammer, entonces el primero seguramente penalizará (o castigará de alguna forma) a todos los sitios que éste último tenga a su nombre.

10. Extensión TLD de País: Este factor dice que un sitio que posea un TLD de un país específico posiciona bien para los resultados de ese país. Por ejemplo, Mercadolibre.com.ar posiciona bien para los resultados de Google Argentina, y así sucesivamente para la versión de cada país.

Sin embargo, esta estrategia no es muy efectiva para posicionar páginas en resultados de búsquedas de otros países, algo que tiene mucho sentido se lo piensa.

Entonces, usando el ejemplo anterior, sería muy raro encontrar un resultado de Mercadolibre.com.ar en los resultados de búsqueda de Google España, y viceversa.

En cualquier caso, tener un dominio con una extensión de TLD local ayuda al posicionamiento.

Factores Relacionados a una Página Específica

Estos factores son los que afectan la relevancia y autoridad de una página específica.

11. Uso de la Palabra Clave en la Etiqueta Title: La etiqueta title de una página web es uno de los factores on-site más importantes de todos. Por eso, usar la palabra clave a posicionar en la etiqueta title manda a Google una señal muy importante de la relevancia de la página para ese término.

12. Uso de la Palabra Clave en el comienzo de la Etiqueta Title: Según estudios realizados por Moz, aquellas páginas cuya etiqueta title comienza con la palabra clave a posicionar, suelen posicionar mejor.

13. Uso de la Palabra Clave en la Meta Description: Es bien sabido en el mundo del SEO que usar la palabra clave en la meta description tiene poco o ningún tipo de importancia al momento de posicionar una página web. Esto no significa que no se deba usar, sino más bien que no hay que poner la palabra clave en la meta description con la intención de posicionar.

14. Uso de la Palabra Clave en el Encabezado H1: Según este estudio realizado por Chris Butterworth, se ha encontrado una correlación entre usar las palabras clave en el encabezado H1 y posiciones altas. Sin embargo, como bien dice al final del estudio, esto no es ni concluyente ni extremadamente importante.

En palabras del mismo Butterworth, “si toma más de una hora poner las palabras clave en todos los encabezados H1, y ésta palabra clave ha sido usada a lo largo del texto, no es necesario optimizarlas“.

15. Frecuencia de Uso de la Palabra Clave en una Página Web: Mientras más se use una palabra clave en una página web, mayor será la relevancia de esa página en relación a la palabra clave. Por ende, es necesario usar la palabra clave algunas veces en una página web, siempre y cuando no se cometan excesos.

16. Largo de Contenido: Páginas con mayor cantidad de contenido son consideradas de mayor relevancia por Google que aquellas páginas con menor contenido. La empresa SERPIQ confirmó esto a través de un estudio.

17. Densidad de Palabra Clave: En su momento, usar una palabra clave exacta una vez cada 100 palabras era considerado óptimo. Hoy en día esto a perdido relevancia, debido a los abusos realizados. Sin embargo, sigue siendo útil usar al menos una vez la palabra clave a posicionar a lo largo de una página web.

18. Uso de Palabras Clave del Índice Semántico Latente (LSI) en el Contenido: El uso de palabras claves pertenecientes al Índice Semántico Latente (palabras similares que tienen más de un significado) ayudan a Google a extraer el significado de las mismas, y entender su relevancia dentro de la página. Se cree que usar este tipo de palabras clave funcionan como una señal de la calidad del contenido de la página en cuestión.

19. Uso de Palabras Clave del Índice Semántico Latente (LSI) en las Etiquetas Title y Meta Description: Similar al uso de este tipo de palabras clave dentro del contenido, usarlas dentro de una etiqueta title y meta description le sirve a Google para entender el significado específico de las mismas. Se cree que funcionan como una señal de relevancia.

20. Velocidad de Carga de Página via HTML: Es importante tener una página con una rápida velocidad de carga. Hace ya un buen tiempo, los buscadores como Google y Bing consideran que el tiempo de carga de una página es importante, y por eso lo agregaron a su algoritmo como una señal de relevancia no menor.

21. Contenido Duplicado: Tener contenido duplicado (esto es, cuando existe más de una página con el mismo contenido) puede afectar negativamente las posiciones.

22. Rel=”canonical”: Una de las soluciones para el problema del contenido duplicado es usar la etiqueta rel=”canonical” en el encabezado, la cual permite mostrarle la URL adecuada a los buscadores. Este es un factor que puede afectar positivamente las posiciones.

23. Velocidad de Carga via Google Chrome: Es posible que Google use datos provenientes de su navegador, Chrome, para analizar mejor el tiempo de carga de una página web.

24. Optimización de Imagen: Los buscadores no pueden leer imágenes. Sin embargo, pueden interpretar la información que contienen las imagenes, a través del alt-text, y el nombre del archivo de la foto. Optimizar ambos factores ayuda a darle relevancia y contexto a las imágenes de una página web.

25. Frescura de Contenido: Desde el cambio algorítmico Caffeine (Junio del 2010), Google le ha dado una gran importancia a la frescura del contenido (esto es, cuán nuevo es el contenido de la página en cuestión). Debido a este factor, Google tiende a favorecer páginas nuevas sobre las viejas. Cada vez es más común ver artículos del año pasado, o más nuevos, que artículos de hace algunos años.

26. Magnitud de Actualización de Contenido: Existen muchos casos en que un mismo contenido es actualizado reiteradas veces a lo largo de un cierto período de tiempo. Google toma en cuenta la magnitud de esta actualización, comparando la versión en su caché, con la que aparece en el momento de la exploración.

27. Historial de Actualizaciones del Contenido: Seguido de la frescura del contenido, Google analiza cuán seguido es éste actualizado. Aquellas páginas que actualicen su página más seguido suelen ser tomadas más en cuenta que aquellas que no lo hacen.

28. Prominencia de la Palabra Clave: Es importante usar la palabra clave a posicionar entre las primeras 100 palabras de una página web.

29. Uso de la Palabra Clave en los Encabezados H2 y H3: Habíamos dicho que usar la palabra clave en el encabezado H1 era una buena señal de relevancia, aunque no extremadamente importante. Habiendo dicho eso, usar la palabra clave en los encabezados H2 y H3 es una señal aún más baja de relevancia.

¿Que quiero decir con eso? Que conviene usar, si es posible, la palabra clave en el encabezado H2 y H3, pero tampoco es que va a hacer una gran diferencia al momento de posicionar una página competitiva.

30. Orden de las Palabras Clave: Si se desea posicionar la palabra clave “repuestos de autos barcelona”, y se optimiza una página para posicionar esa palabra clave específica (y sus variaciones), entonces es probable que la página en cuestión aparezca mucho más alto en los resultados de búsqueda que si se busca por “comprar repuestos para autos chicos barcelona”.

Aún cuando ésta última palabra clave sea una versión mucho más “long-tail” que la primera, y, por consiguiente, menos competitiva, el orden de las palabras clave importa, y mucho.

31. Calidad de Links Salientes: Se cree que la calidad de los links salientes (esto es, aquellos links que ponemos en nuestra página que apuntan hacia páginas externas) es una señal de la calidad de la página en cuestión. Es lógico, ya que usualmente las páginas de baja calidad apuntan hacia otras páginas de baja calidad (en parte porque las páginas de alta calidad no suelen enlazar a páginas de baja calidad).

32. Tema de Links Salientes: Según la gente de Moz, una manera de que Google pueda entender el tema y el contexto de una página, es viendo el tema de las páginas de los links salientes.

Por ejemplo, si uno tiene una página donde muestra inmuebles en venta, y los links salientes es para páginas de inmuebles, Google podrá llegar a la conclusión de que esa página en cuestión es sobre inmuebles.

33. Gramática y Ortografía: Se cree que la gramática y ortografía de una página influye en la forma de que Google trata la calidad de la misma. No se si es cierto, ya que Matt Cutts comentó en este video que aunque este factor forma parte del algoritmo de Google, no es de los más importantes.

De todas formas, este tipo de factor entra en los que yo llamo “Factores de Usabilidad”. Aún si la gramática y ortografía no te ayuden a posicionar, tus usuarios no querrían ver una página mal redactada, ya que en ese caso, la abandonarían rápidamente. Y como veremos más adelante, el bounce rate tiene alguna influencia en las posiciones.

34. Contenido Sindicado (o Usado): Como es de esperar, si Google encuentra que el contenido de tu página ya ha sido usado anteriormente, lo tomará como una fuerte señal de mala calidad, y por ende considerará a esa página como de baja calidad.

35. Contenido Suplementario: Si una página tiene contenido suplementario, sea herramientas, o guías de algún tipo que le provea calidad a la página en cuestión, Google lo tomará como una señal de relevancia y calidad.

36. Número de Links Salientes: Es bien sabido en el mundo del SEO, que el número de OBLs (acrónimo para “Outbound Links“, o links salientes) afecta negativamente al PageRank, haciéndolo que se diluya entre todas las páginas a las que se enlaza.

Por eso, mientras más links salientes tenga una página, menor “link juice” pasarán. Por eso nunca se recomienda llenar una página de links externos, tanto para el que enlaza, como para el enlazado.

37. Existencia de Contenido Multimedia: Tanto el uso de videos, fotos o documentos hacen de señal de calidad para Google. Esto es porque, como bien dije en el factor #35, mientras mayor sea la calidad del contenido, mejor.

38. Número de Links Internos Apuntando hacia la Página: Un factor muy importante. Mientras más links internos tenga una página, más importante será a los ojos de Google. Esta página es generalmente la página de Inicio, la cual hace de “Hub“, o eje dentro de un sitio web.

39. Calidad de Links Internos Apuntando hacia la Página: Sumado al factor anterior, la calidad de los links internos también ayuda mucho a determinar la calidad de la página enlazada. Por eso, es importante que las páginas de mayor calidad (PA y/o PageRank alto) enlacen a aquellas páginas que se desean posicionar.

40. Número de Links Rotos: Mientras más links rotos tenga una página, menor la calidad de la misma. Es importante siempre arreglar la mayor cantidad de links rotos, tanto salientes como internos.

41. Nivel de Lectura: Se estima que Google mide el nivel de lectura de una página para medir la calidad de la misma. Cómo lo hace, nadie sabe. Sin embargo, mientras más ilegible sea la página, peor suele ser su autoridad.

Este es otro de aquellos factores que se deben optimizar pensando en los usuarios, y no en los buscadores, aún si estos valoran fuertemente este factor.

42. Links de Afiliado: Aunque no esté mal de por sí usar links de afiliado en una página, el uso excesivo de los mismos puede actuar como una señal de que esa página no es de calidad.

A su vez, pensá que los usuarios tampoco quieren ver demasiados links de afiliado en una página. Solo a un spammer se le ocurriría hacer algo así, ¿no te parece?

43. Errores de HTML y Validación W3C: Tener una página con muchos errores de HTML, y mal validadas pueden hacer de señal de la calidad (baja, en este caso) de la página en cuestión.

44. Autoridad de Dominio: Uno de los factores más importantes. Cómo se determina individualmente a este factor, tomando en cuenta los factores #1 al #10.

De cualquier forma, si hay algo que es seguro, es que una página con mayor autoridad suele posicionar mejor que una con menor autoridad.

45. PageRank de Página: Uno de los factores más famosos, y actualmente controversiales, es este. Se estima que una página con un PageRank alto suele posicionar mejor que una con uno bajo.

Sin embargo, en los últimos años Google ha dejado prácticamente de actualizar a este factor, y por eso, cada vez se encuentran menos correlaciones entre PageRank alto y altas posiciones.

46. Largo de URL: Search Engine Journal ha comprobado que el largo de una URL afecta a las posiciones. Mientras más larga sea una URL, peor.

47. Ubicación de la URL: La ubicación de la palabra clave dentro de una URL también afecta a las posiciones. En el mismo informe mencionado anteriormente, mientras más cercana esté la palabra clave al dominio principal, mejor.

Por ejemplo, si deseo posicionar la palabra clave “SEO”, y mi URL es http://ejemplo.com/categoria1/categoria2&parametro1&parametro2/seo, entonces las chances de posicionar esa página son bajas. Si se desease optimizar esa URL para posicionar la palabra clave “SEO”, ésta debería quedar de la siguiente forma: http://ejemplo.com/seo.

48. Existencia de Editores de Contenido Humanos: Aunque nunca se ha confirmado, Google ha presentado una patente en la que la existencia de editores de contenido humanos afecta positivamente las posiciones.

49. Categoría de Página: Las categorías tienen una gran importancia dentro del ranking de Google. El tener una página dentro de una categoría relevante aumenta las chances de que esa página posicione para el término deseado, que si estuviera dentro de una categoría poco relacionada al tema.

50. Uso Etiquetas de WordPress: El uso de las etiquetas (tags) de WordPress, la plataforma de blogging más grande del mundo, son una señal de relevancia para Google. Al usar las etiquetas, uno le manda una señal a Google del tema de la página en cuestión (ya que las etiquetas sirven para relacionar páginas similares).

51. Uso de la Palabra Clave a Posicionar en la URL: Como es de imaginar, usar la palabra clave que se desea posicionar en la URL de la página en cuestión, es una señal fuerte de relevancia. Por eso es importantísimo usar las palabras clave en las URL, sea de manera exacta, o dentro de una frase.

52. Uso de la Palabra Clave en la Cadena de la URL: El usar la palabra clave dentro de la cadena de una URL, le permite a Google entender el tema de la página en cuestión. Se podría decir que es una señal de semántica.

Si, por ejemplo, yo tengo una página de venta de artículos de pesca, y la cadena de mi URL es: http://pesca.com/articulos-de-pesca/anzuelos/lombrices/lombrices-bebe/producto-lombrices, Google podría entender que todas esas palabras clave de categoría están relacionadas entre sí.

53. Uso Fuentes y Referencias: El uso de fuentes y referencias dentro de un artículo, puede ser una señal de relevancia para Google.

54. Uso de Listas Numeradas y Ordenadas: Usar listas numeradas y ordenadas facilitan la lectura del contenido, haciendolo más “user-friendly”. Esto es bueno, ya que provee una buena experiencia de usuario. Aún cuando no haya una manera directa de medir la experiencia de usuario, Google seguramente valora esto.

55. Prioridad de Página en Sitemap: El poner una página como “prioritaria” dentro de un Sitemap, puede hacer que Google la valore más con respecto a otras que poseen una prioridad menor.

56. Exceso de Links Salientes: Google ha dicho que el uso excesivo de links salientes puede “oscurecer la página, y distraerla del contenido principal“. Por eso, uno nunca debe excederse con la cantidad de enlaces salientes.

57. Cantidad de Páginas Internas que Posicionan: Si Google encuentra que un sitio posiciona muchas páginas internas relacionadas con la página analizada en cuestión, puede considerar a otra de las páginas de este sitio como relevante y de mayor autoridad.

58. Edad de Página: Una página que actualiza su contenido seguido, pero que es más antigua que otra que también crea contenido fresco, puede posicionar mejor.

59. Interfaz Amigable: Citando el Documento de Guía de Calidad de Google, “el diseño de página en las páginas de mayor calidad hace que el contenido principal sea inmediatamente visible“. Por eso, es importante tener una interfaz amigable.

60. Dominios Parqueados: Aquellos dominios que estén parqueados (esto es, que se han vencido y están en espera de ser vendidos o usados), pierden mucha autoridad.

61. Utilidad de Contenido: Es posible que Google diferencie entre contenido de calidad, y contenido útil. Tener un contenido que sea de calidad y al mismo tiempo útil, es mejor que sea de calidad pero más difícil de usar. Por eso es importante fijarse en la utilidad del contenido, y no solo en su calidad (sea definida por las fuentes citadas, largo, complejidad u otros factores del contenido).

Factores Relacionados a un Sitio Entero

Estos factores son los que mejoran la autoridad y relevancia de un sitio entero.

62. Calidad del Contenido: Proveer contenido de calidad a lo largo de un sitio es uno de los principales factores de posicionamiento. Es por eso que yo siempre hablo de la importancia de desarrollar contenido de puta madre.

Por otro lado, Google ha dicho que consideran penalizables a aquellas páginas que no proveen contenido único, de calidad, y que provea valor a la audiencia. Esto es especialmente cierto para las páginas de afiliados, que copian y pegan la información que el vendedor les provee.

63. Existencia de Página de Contacto: El Documento de Guía de Calidad mencionado anteriormente establece que Google prefiere a todas aquellas páginas que que provean “una cantidad considerable de información de contacto”. Y, según dicen, es mejor aún si la información de contacto encaja con la información de dominio Whois.

64. Confianza de Dominio (TrustRank): La confianza de dominio se mide por la cantidad de links de distancia que tu página tiene con páginas de autoridad (como Wikipedia, o algún diario importante). Este es un factor muy importante al que Google le da mucha importancia.

Una manera fácil y rápida de ver el TrustRank de un dominio es usando la MozBar.

65. Arquitectura del Sitio: Una arquitectura bien hecha, que organice y distribuya las páginas por tema, ayuda a que Google pueda entender mejor y más fácilmente el tema de tu página. Para lograr esto, es conveniente usar categorías que apunten a las palabras clave deseadas, y que estén bien distribuidas las páginas dentro de cada categoría.

66. Actualizaciones del Sitio: Hace ya muchos años, Google le da importancia a aquellas páginas “frescas”, que actualicen su contenido seguido. Como bien se dijo en los factores #25 y #26, mientras más seguido actualices tus páginas, mejor.

67. Número de Páginas: Aunque este se considera un factor débil, el número de páginas que tenga un sitio le permite medir a Google la relevancia e importancia de un sitio web. Como mínimo, le permite a Google distinguir entre aquellas páginas con un buen volumen de contenido de aquellas en las que existen pocas páginas con la, cuyo único objetivo es vender un producto (como los afiliados).

68. Existencia de Sitemap: Un Sitemap permite detectar, explorar e indexar rápida y fácilmente a todas las páginas de un sitio web. Por eso es importante tener un Sitemap. Este seguramente sea un factor débil de posicionamiento, aunque importante para obtener una buena indexación (lo cual es súper importante de por sí).

69. Uptime del Sitio: Se estima que una página que suele estar caída por problemas del servidor suelen perder posiciones. Esto se debea que el buscador, al pasar por una página caída, cree que dejó de existir, lo que termina desindexándola, o como mínimo, reduciéndole sus posiciones.

70. Localidad del Servidor: Se cree que la localidad del servidor de una página puede afectar el posicionamiento de la misma. Como mínimo, este factor puede ser el “empujoncito” extra que una página necesita para superar a otra.

Este factor es muy importante para los buscadores locales de cada país, especialmente para aquellas búsuqedas que son super locales. (Ver factor #142 para más información.)

71. Existencia y Uso de Certificado SSL: Google ha confirmado que indexa a los certificados SSL. Como mínimo, este factor sirve para que Google confíe en la página en cuestión, especialmente los e-commerce.

Digamos que si Google tiene que elegir entre una página con el certificado SSL, y una que no lo tiene, eligirá posicionar la que sí lo tiene.

72. Existencia de Páginas de Términos y Condiciones y Privacidad: La existencia de una página de Términos y Condiciones, y una de Privacidad, puede darle una señal débil de la confianza y seguridad que una página quiere brindarle a sus usuarios.

73. Existencia de Contenido Duplicado: Tenerr contenido duplicado a lo largo de un sitio causa, en el mejor de los casos, una reducción en las posiciones de las páginas duplicadas, y en el peor de los casos, una penalización.

El contenido duplicado es más común de lo que la gente se imagina (he visto páginas de agencias de SEO con contenido duplicado, así que creéme que es muy común), y es relativamente fácil de solucionar. Mientras más controlado tenga uno esta situación, mejor.

74. Existencia y Uso de Breadcrumbs: Se cree que el uso de Breadcrumbs es una buena señal de relevancia, ya que no solo mejoran la arquitectura web, creando links internos ricos en anchor text, sino que brindan una gran experiencia de usuario. Y, lo mejor de todo, es que son relativamente fáciles de implementar.

75. Optimización Móvil: Google ha dicho que es bueno generar una versión móvil, o responsiva, de un sitio web. No sólo mejora la experiencia de usuario (algo que, como he dicho un montón de veces, es una señal de relevancia importante), sino que las páginas adaptadas para móviles pueden posicionar mejor que una que no lo está.

76. YouTube: Aunque es bastante obvio que YouTube posiciona bien porque pertenece a Google, hay que considerar que las páginas (o, mejor dicho, videos) de YouTube poseen mucha autoridad. Su DA actual es de 100, así que eso lo dice todo.

Tener una página en YouTube, con contenido exclusivo para esa plataforma, puede ayudar a mejorar la autoridad de tu sitio web.

77. Usabilidad del Sitio: Como bien dije anteriormente, la usabilidad de un sitio web es una señal de relevancia y autoridad cada vez más importante. Aunque no hay una forma única y sencilla de medir la usabilidad del sitio (ya que éste es un concepto bastante subjetivo), es importante respetar algunos conceptos básicos de ésta disciplina.

Entre ellos, tenemos:

  • Buen diseño
  • Poca publicidad
  • Contenido de calidad
  • Pocos pop-ups, o carteles que dificulten el uso del sitio
  • Estructura sencilla y clara

78. Uso de Google Analytics y Google Webmaster Tools: Se cree que tener instalado estas dos herramientas en un sitio puede ayudar al posiconamiento web, al menos en Google. Tal vez, esto se debe a que ambos programas le proveen una mayor cantidad de datos a Google, permitiéndole tomar mejor decisiones sobre una página.

Si, por ejemplo, una página tiene un bounce rate muy alto (superior al 90%), y un tiempo en página muy bajo (digamos, menor a los 30 segundos), Google puede tomar esto en cuenta y llegar a la conclusión de que esa página es de baja calidad.

79. Análisis de Usuarios y Reputación del Sitio: La reputación y opiniones que un sitio puede recibir en páginas como PaginasAmarillas.com, u otros directorios similares, puede ayudar a que Google pueda entender mejor la relevancia de una página.

Factores Relacionados a los Backlinks (o Links Externos)

Estos son los factores que apuntan a definir la calidad de los links externos entrantes de un sitio o página web, los cuales forman de por sí el conjunto de factores más importantes de todos para posicionar un sitio.

80. Edad de la Página del Link: Se estima que aquellos links provenientes de dominios antiguos pueden ser considerados de mayor autoridad comparado con uno de un dominio más nuevo. Esto se relaciona con el factor #1.

81. Número de Dominios que Enlazan (Linking Root Domains, o LRD): Uno de los factores más importantes dentro de este grupo, es el número de dominios que enlazan hacia un sitio. Mientras mayor sea la cantidad de dominios que enlazan, mejor.

Esto tiene lógica, ya que si un sitio es enlazado por un gran número de dominios, mayor será seguramente su autoridad y relevancia. Esto es claramente una señal de autoridad para Google.

82. Número de Links provenientes de IPs de Distintos Bloques de Cs: Este es un factor bastante difícil de entender para la mayoría.

Básicamente, una IP consiste en 4 partes: AAA.BBB.CCC.xxx. La primera parte se la llama “Clase A”, la segunda “Clase B”, y como es de esperar, la tercera “Clase C”.

Por ejemplo, las IPs:

  • 123.456.789.1
  • 123.456.789.2

pertenecen a la misma clase C.

Muchos servidores pequeños hostean a distintos sitios en la misma clase C. Esto significa que si uno obtiene links de distintos sitios, pero que pertencen a la misma clase C, estos sitios están de alguna forma emparentados. Esto es, al menos, lo que Google cree. Por ende si uno obtiene muchos links de distintos sitios que pertenecen a la misma clase C, menor será la calidad de estos links.

En definitiva, mientras mayor sea el número de bloques de Cs distintos, mejor, ya que significa que mayor será la diversidad de los dominios.

83. Número de Links que Enlazan: Uno de los factores más básicos e importantes de todos. Mientras mayor sea el número de links que enlazan hacia una página o sitio, mejor. Esto se aplica tanto para los links externos que provienen de un mismo sitio, como para los que son internos.

84. Etiquetas Alt (para las Imágenes): Como los buscadores no pueden leer las imágenes, utilizan la etiqueta alt para entender de qué se tratan las mismas. Debido a esto, uno siempre debe usar la etiqueta alt para ayudar a Google a que pueda entender mejor el significado, tema y relevancia de una imagen.

85. Links Provenientes de Dominios .edu y .gov: Hace ya varios años se habla en el mundo del SEO (especialmente el “black hat”) que aquellos links provenientes de dominios .edu (otorgados exclusivamente a instituciones educativas, como Universidades), y dominios .gov (otorgados a instituciones gubernamentales) tienen un mayor valor que los links de dominios comunes.

Aunque esto sigue siendo cierto, este factor ha bajado su relevancia, ya que los SEOs “black hat” se aprovecharon de este tipo de dominios, usándolos para hacer spam.

86. PageRank del Dominio que Enlaza: En su momento, este factor solía ser de mucha importancia, teniendo en cuenta que el PageRank fue lo que ayudó que Google, en sus comienzos, pudiera convertirse en uno de los principales buscadores mundiales.

Hoy en día, Google no le da tanta importancia al PageRank, ya que cada vez lo actualiza menos. Aunque sigue siendo relativamente relevante, es de esperar que este factor haya caído bastante en relevancia.

87. Autoridad del Dominio que Enlaza: Otro factor súper importante para valuar la autoridad de un link externo. Mientras mayor sea la autoridad (medida en PageRank, o Domain Authority) de un dominio que enlaza hacia un sitio, mayor poder tendrá ese enlace externo entrante.

88. Links de la Competencia: Puede ser que si recibimos links de otras páginas con las que competimos por una palabra clave, éstos links externos tengan un mayor poder y autoridad (porque claro, ¿quién enlaza a un competidor directo?).

Una página que recibe muchos links de este tipo es Wikipedia, por razones obvias.

89. Cantidad de Actividades Sociales (Me gusta, tweets, etc.) de la Página Referida: Acá es donde posiblemente el factor social tenga algo de relevancia dentro del análisis de un link. Si la página que nos enlaza tiene una gran actividad social (medida por la cantidad de “Me Gusta”, tweets, y especialmente +1s), puede ser que ese enlace tenga un mayor poder.

90. Links de “Malos Vecindarios”: Es altamente posible que links provenientes de redes de links, granjas de links o ruedas de links, puedan dañar el posicionamiento de tu sitio.

91. Artículos de Invitado: Hoy en día, los artículos de invitado están muy de moda. Estos son, sin lugar a duda, una de las mejores formas de crear links de calidad. Es posible que hoy en día Google tome en cuenta a los links provenientes de artículos de invitado como un tipo especial de link, debido al tremendo uso que se les da hoy en día.

De todas formas, hace ya un tiempo Google les ha empezado a bajar el pulgar, haciendo que los links provenientes de las bios tengan menos valor que aquellos que son puramente contextuales.

92. Links hacia la Página de Inicio del Sitio: Obtener una buena cantidad de links externos que apuntan a la página de Inicio le otorga naturalidad al perfil de links. Esto es similar a recibir anchor text “de marca”, es lo más natural y es el tipo de link externo más común de todos. Por ende, es bueno recibir este tipo de links.

93. Links “nofollow”: Los links “nofollow” son aquellos links que no pasan autoridad hacia la página de destino. Usarlos en un sitio es bueno, ya que uno así puede garantizarse que va a recibir menos spam que si no los usara.

Aunque uno puede decir que estos links no sirven, ya que no pasan autoridad, éstos le proveen una cierta naturalidad al perfil de links de un sitio. Gracias a eso, Google puede llegar a la conclusión que esa página no está incurriendo en el spam para obtener links. Esto puede ser una señal de relevancia importante para valuar un link externo.

94. Diversidad de Links: Mientras mayor sea la diversidad de links, mayor será la naturalidad de los mismos, y por ende, menor la chance de penalización.

Por eso, es importante recibir links de todo tipo: de menciones, contextuales, de comentarios, de directorios de calidad, de producto, etc. No me canso de repetir que lo que importa hoy en día es la naturalidad de los links, ésta es la clave del futuro.

95. Uso de Palabras en el Anchor Text relacionadas con Patrocinamientos: Recibir links con anchor text que contenga palabras como “patrocinamientos”, “sponsors”, o palabras relacionadas puede reducir el valor de estos links.

96. Links Contextuales: Los links contextuales son aquellos links que uno recibe en menciones naturales dentro del contenido de una página. Como vengo diciendo hace ya varios factores, la naturalidad de los links es muy importante, y estos links son los más naturales de todos.

Mientras más naturales, más merecidos resultarán a los ojos de Google, y por ende, mejores serán.

97. Número Excesivo de Redirecciones 301 que Apunten hacia la Página: Obtener muchos links externos de páginas con redirecciones 301 pueden diluir el poder y autoridad de estos links.

98. Anchor Text del Link: Uno de los factores más importantes de todos. En el mismísmo paper universitario donde Larry Page y Sergey Brin publicaron el algorítmo original de Backrub, el buscador que luego pasaría a llamarse Google, dicen:

Los textos de enlace (anchor text) suelen proveer una descripción más precisa de las páginas web, que las páginas mismas“.

Es claro que obtener un buen anchor text externo es una de las principales claves del posicionamiento. Sin embargo, uno no puede controlar este factor (y es mejor que no lo haga). Por eso, los anchor text han decaído en importancia, debido a la altísima manipulación que se le ha hecho.

Como digo en casi todos los factores de backlinks: mientras más natural luzca el anchor text, mejor.

99. Anchor Text Interno: Aunque el anchor text interno tiene menor valor que un link externo, tienen algo de peso al momento de evaluar la relevancia de un link. La ventaja de los links internos, es que uno puede manipularlos como uno quiera, sumado a que no importa tanto si el anchor text no luce tan “natural” (es decir, si no tiene el nombre de la empresa como anchor text principal).

100. Atribución del Título del Link: El título del link (el nombre que aparece cuando uno pasa el cursor sobre un link) puede ser una señal de relevancia baja para Google.

101. TLD del País del Dominio Referido: Obtener links provenientes de dominios con un TLD de un país, puede ayudarte a posicionar en el buscador de ese mismo país.

Por ejemplo, si uno quisiera posicionar una página en el buscador de Google España, entonces obtener links de dominios con el TLD “.es”, podrían ayudarnos a posicionar para ese buscador específico.

102. Ubicación del Link en el Contenido: El poder de un link varía según la ubicación dentro del contenido de una página. Se cree que aquellos links que aparecen al principio del contenido, tienden a tener mayor poder que los que están en otras partes dentro de ese mismo contenido.

103. Ubicación del Link en la Página: El poder de un link dentro de una página varía según su ubicación. Aquellos que aparecen dentro del contenido, tienden a tener más poder que los que aparecen en el footer, o en el sidebar.

104. Relevancia del Dominio que Enlaza: Aquellos links provenientes de dominios que tienen algún tipo de relación con la página que recibe el link tienden a tener más valor que aquellos que provienen de dominios no relacionados.

105. Relevancia de la Página que Enlaza: Según el algoritmo Hilltop, un link proveniente de una página cuyo tema es similar y relevante al de la página que recibe el link, tiende a tener más poder que uno de una página no relevante.

106. “Sentimiento” del Texto Alrededor del Link: La opinión de la gente alrededor a un link tiende a tener algo de efecto en el poder del link en cuestión. Esto tiene vital importancia para el SEO local, debido al concepto de “co-citación”, una forma muy nueva de darle relevancia a un link. Para más información, ver el factor #113.

107. Uso de Palabra Clave en el Título de la Página que Enlaza: Google suele darle mayor importancia a aquellos links cuyas páginas tienen la palabra clave en la etiqueta title de la misma. Es una señal de relevancia baja.

108. Velocidad de Link Positiva: Un link proveniente de una página que tiene una velocidad de link positiva (es decir, que ésta obtiene una buena cantidad de links en poco tiempo) suele tener más poder que una con una negativa (ver a continuación).

109. Velocidad de Link Negativa: Si un link proviene de una página con una velocidad de link negativa (es decir, que un sitio o página acostumbrado a obtener muchos links en poco tiempo deja de obtenerlos), este link tendrá menos poder que si tuviera una velocidad positiva.

110. Links provenientes de “Páginas Eje”: Es posible que obtener un link proveniente de una “página eje” (es decir, páginas súper autoritarias, con muchos links externos) tenga más valor que uno de una página más normal.

Un ejemplo de una página eje es una página donde se ubica la información más valiosa de un sitio, como una página de categoría, una página de recursos, o una de “Acerca de” una empresa.

111. Links de Sitios de Autoridad: Uno de los factores más importantes. Un link proveniente de un sitio de autoridad, el cual tiene muchos links externos y de muchos dominios distintos, tiene mucho más poder y valor que uno de un sitio de autoridad baja.

112. Link de Wikipedia: Es de esperar que los links provenientes de Wikipedia, uno de los sitios de mayor autoridad en la web, tienen un gran poder, a pesar de que todos sus links son “no-follow”.

113. Co-Ocurrencias: Las palabras que están alrededor de un link pueden proveerle relevancia a ese mismo link, permitiéndole entender a Google de que se trata la página enlazada.

114. Edad del Link: Según esta patente, aquellos links que tienen varios años de antigüedad tienen más poder que aquellos que son más nuevos.

115. Veracidad del Sitio que Enlaza: Los links que provengan de sitios reales, cuyos webmasters no tienen historias de penalizaciones, y que provean contenido de calidad, tienen un gran poder sobre aquellos que provienen de sitios de baja calidad, como redes de blogs, y demás.

116. Naturalidad del Perfil de Links: Esto es algo que vengo hablando en varios factores. Google le otorga un gran valor a aquellos links con un perfil “natural”. La “naturalidad” de un link se puede definir por algunas de las siguientes características:

  • Una velocidad de link positiva
  • Un anchor text natural
  • DA promedio (entre 10 y 40 es el rango más común)
  • PA promedio (entre 20 y 50 es el rango más común)
  • Balance entre links “no-follow” y “follow”
  • Entre otras

117. Reciprocidad de Link: Según Google:

Cualquier enlace cuya finalidad sea manipular el PageRank o la clasificación de un sitio en los resultados de búsqueda de Google se considerará parte de un esquema de enlaces y estará incumpliendo las Directrices para webmasters de Google. Esto incluye cualquier comportamiento que manipule los enlaces a tu sitio, o bien los enlaces que procedan de tu sitio.

Ninguna novedad hasta ahí. Es decir, si manipulás la manera en que obtenés tus links, te van a penalizar.

Luego, Google se pone más específico, y muestra “algunos ejemplos de esquemas de enlaces que pueden afectar negativamente la clasificación de un sitio en los resultados de búsqueda. Dentro de estos ejemplos, está:

El intercambio excesivo de enlaces (“enlaza con mi sitio y yo enlazaré con el tuyo”) o de páginas de socios por el mero hecho de intercambiar enlaces.

Por ende, si obtenés links de manera recíproca, solamente por el hecho de intercambiar enlaces, te van a penalizar.

Eso no significa que si vos recibís un link de una página a la que enlazas seguido en tu sitio, te van a penalizar. No, no tengas miedo de enlazar a una página que te ha enlazado, Google se da cuenta de eso.

Tan solo no enlaces por el simple hecho de obtener un link a cambio, o, dicho de otra forma, no esperes que alguien te enlace porque sí.

Si no hacés eso, no vas a tener problemas. Te lo aseguro.

118. Links provenientes de Contenido Generado por Usuarios (UGC): Es posible que aquellos links provenientes de contenido generado por usuarios (UGC) pueden tener mayor valor que uno hecho por un mismo editor contínuamente.

Esto se puede deber a que el contenido generado por usuarios tiene menor intención de ventas o promoción que uno hecho por un mismo editor. Por ende, estos links son más “puros” y “naturales”.

119. Links Proveniente de una Redirección 301: Según Matt Cutts, aquellos links que provienen de una redirección 301 tienen prácticamente el mismo valor que un link directo.

Esto ha sido confirmado por estudios hechos por Moz, donde se afirmó que el valor de los links provenientes de una redirección 301 pasan entre el 90% y 99% del valor del link original.

120. Uso de Microformatos: Los microformatos, similar a lo que hacen las meta description, ayudan a mejorar el CTR de los resultados de búsqueda de una página.

Sin embargo, también se cree que éstos pueden darle un “empujoncito” al posicionamiento de una página, sea porque Google toma en cuenta el CTR dentro de su algoritmo (ver factor #128 y #129), o porque mejoran la usabilidad.

121. Sitio Ubicado en el Directorio DMOZ: Se cree que aquellos sitios que estén enlistados en el directorio DMOZ (uno de los directorios abiertos más importantes y autoritarios que existen) tienen mayor probabilidades de posicionar que otros sitios sin un link del mismo.

122. Sitio Ubicado en el Directorio de Yahoo!: Similar al caso del directorio DMOZ, se cree que aquellos sitios que estén enlistados en el directorio de Yahoo (otro de los directorios más importantes que existen) tienen mayores chances de posicionar que aquellos sitios sin un link del mismo.

123. Número de Links Salientes en la Página: Si un sitio obtiene un link de una página con muchos links salientes (como este artículo), ese link obtenido tendrá menos valor y poder que uno de una página con pocos links salientes. Esto se debe a que la autoridad que pasa una página se diluye entre todos los links salientes.

124. Link Proveniente de Perfil de Foro: Debido a la enorme cantidad de links black-hat que se han creado usando perfiles de foro, Google los ha terminado devaluado. Esto no significa que si obtenés un link de un perfil de foro vas a ser penalizado; tan solo no tendrá valor (siempre y cuando no recibas miles de links de este tipo, eso si puede ser considerado penalizable).

125. Número de Palabras del Contenido que Enlaza: Un link proveniente de una página con una gran cantidad de contenido (como este artículo) tendrá mayor valor que uno proveniente de una página con poco contenido. Esto se debe a que una página con una gran cantidad de contenido suele ser de mayor calidad que uno con poco contenido.

126. Calidad del Contenido que Enlaza: Relacionado con el factor anterior, un link proveniente de una página con contenido de calidad tendrá un enorme valor. Estos links se los llama “contextuales”, o “editoriales”, y por la calidad de los mismos es que son tan importantes.

127. Link Enlazado en Todo el Sitio (Sitewide Link): Matt Cutts ha confirmado que aquellos links que se repiten a lo largo de un sitio tienen menos valor, ya que se los toma como si fuera uno solo. A estos links se los suele llamar por su nombre en inglés: sitewide links.

Factores Relacionados con la Interacción del Usuario

Estos factores analizan la usabilidad y la calidad de la interacciónd el usuario con un sitio web.

128. CTR (Ratio de Clics) Orgánico para una Página: Aquellas páginas que son cliqueadas más seguido en los resultados de búsqueda, pueden recibir un “empujón” extra por parte de los buscadores, para la palabra clave en cuestión.

129. CTR (Ratio de Clics) Orgánico para todos un Sitio: Aquellos sitios que usualmente son cliqueados en los resultados de búsqueda, también pueden recibir un “empujón” extra por parte de los buscadores, para todas las páginas del sitio en cuestión.

130. Portentaje de Bounce Rate: Se estima que el Bounce Rate (o “tasa de rebote”) puede tener un efecto en las posiciones.

En teoría, aquellas páginas que tengan un bounce rate alto (es decir, páginas donde el usuario llega, ve la página, y se va sin cliquear en ninguna otra página), pueden perder relevancia, y por ende, posiciones frente a otras con mejor bounce rate.

El gran tema es que no se sabe de dónde Google puede obtener esa información. Es de creer que si el sitio tiene instalado Google Analytics (algo feasible), entonces Google podría extraer esta información de ahí. También podría extraer esta información de Google Chrome, la toolbar de este mismo navegador, o Google Webmaster Tools.

La cuestión es que si uno tiene un sitio donde el Bounce Rate es alto, la página podría llegar a sufrir un leve descenso en sus posiciones.

131. Cantidad de Tráfico Directo: Según unos ex-empleados de Google, que este buscador usa la información de su navegador, Chrome, para determinar la cantidad de tráfico directo que un sitio obtiene.

Entonces, se esperaría que si un sitio obtiene mucho tráfico directo, esto podría influir en la relevancia del mismo, lo cual podría darle un cierto “empujón” a sus posiciones.

132. Cantidad de Tráfico Repetido: Seguido del factor anterior, Google Chrome podría obtener información del número de tráfico repetido que un sitio tiene. Mientras mayor sea este número, mayor debería ser la calidad y relevancia de un sitio.

De esta forma, se podría esperar que Google ayudara a que ese sitio obtena una mejora en sus posiciones.

133. Cantidad de Sitios Bloqueados: Históricamente, un usuario podía bloquear un sitio específico dentro de sus resultados de búsqueda. Aunque eso ya no es posible, este factor podía influenciar en la relevancia de un sitio (lo que, como ya sabrás, influye directamente en las posiciones).

El cambio algorítmico Panda usó este factor para determinar a aquellos sitios que fueran de mala calidad.

134. Marcadores de Chrome: ¿Sabías que Google Chrome sabe qué páginas son las más marcadas dentro de su navegador? Gracias a eso, Google usa esta información como un factor para ver cuán popular y útil es una página.

135. Datos de la Toolbar de Chrome: Google usa los datos de su toolbar como factor de posicionamiento. De esta herramienta, Google saca información sobre la velocidad de un sitio, si éste contiene malware, entre otros datos más.

136. Número de Comentarios: Es posible que una página que contenga una gran cantidad de comentarios reciba una mejora en sus posiciones.

137. Tiempo en Página proveniente de Búsqueda Orgánica: Como bien se dijo en el factor #130, es posible que Google tenga la capacidad de analizar datos internos de engagement de un sitio. En este factor, hablé del bounce rate. Pero también, es posible que Google analice el tiempo de estadía de una persona, en el caso que esta haya entrado desde los buscadores.

Este factor es bastante polémico (por no decir horrible), debido a que Google calcula el tiempo en página restando el tiempo de estadía de dos o más visitas, desde la más reciente, hasta la primera.

Si, por ejemplo, una persona está 30 minutos leyendo un artículo tan largo como este, y luego se va, se cuenta como un rebote, cuya visita es de 0 segundos.

Si, en cambio, esa misma persona lee, después de esos 30 minutos, otro artículo que le toma tan solo 2, el tiempo en página promedio será de 28 minutos (porque 30 – 2 = 28).

Entonces, este factor dice que mientras mayor sea el tiempo promedio de estadía de una persona, mayor el engagement, y por ende, mayor la relevancia de ese sitio para los resultados de búsqueda.

Reglas Especiales Algorítmicas

Estos factores son bastante particulares y raros, los cuales pueden afectar las posiciones de una manera inesperada. Entenderlos nos permite darnos cuenta de porqué muchas veces algunos resultados de búsqueda son lo que son.

138. Frescura de la Página (Query Deserves Freshness): Google suele darle cierta ventaja a aquellas páginas que son más nuevas, y que provienen de dominios autoritarios, que aquellas que son más antiguas. Esto se debe a un factor llamado Query Deserves Freshness.

139. Diversidad de la Búsqueda (Query Deserves Diversity): Existen muchos casos en que Google le mejora las posiciones a una página con poca autoridad, debido a la ambiguedad de la búsqueda hecha.

Si, por ejemplo, buscás el término “PBI”, es posible que Google agregue a los resultados de búsqueda a muchas páginas poco autoritarias que tocan el tema del PBI (Producto Bruto Interno), dejando de lado a empresas o productos que tienen ese mismo nombre.

En ese caso, si vos tenés una de esas páginas beneficiadas, tenés que agradecerle al factor Query Deserves Diversity.

140. Historial de Navegación: Es posible que un sitio reciba una mejora en sus posiciones si fue varias veces visitado por una persona que estaba logueada a Google durante la visita (ya que Google toma la información de ese usuario y lo mejora en relación a ese historial de navegación). Esto se relaciona con las búsquedas personalizadas que tanto ruido han hecho en los últimos tiempos.

El único problema es que este tipo de ventajas es personal, y por ende, no puede ser fácilmente modificado (a menos que proveamos contenido de calidad, y una buena experiencia de usuario).

141. Historial de Búsqueda del Usuario: El historial de búsqueda de un usuario afecta de manera similar al factor anterior. Si, por ejemplo, uno busca varias veces un producto específico (“iPhone 5s especificaciones”), es muy probable que la próxima vez que hagamos una búsqueda relacionada a ese mismo producto (“iPhone 5s precio”) veamos más resultados similares (es decir, más resultados sobre las especificaciones y precio del iPhone 5s).

142. Geo-Targeting (“Orientación Geográfica”): Google suele darle ventajas a sitios que demuestran una cercanía al de la persona que hace la búsqueda. Esto se puede ver en el caso de sitios que tienen un servidor cercano al de la persona que hace la búsqueda, como también un dominio del mismo país de la persona.

Es por eso que es común ver a muchos sitios, digamos españoles, con poca autoridad en los resultados de búsqueda de Google España. Lo mismo se aplica a los resultados de búsqueda de otros países.

143. Búsqueda Segura: Google filtra de sus resultados de búsqueda a aquellas páginas que contentan malas palabras y contenido “prohibido” (como pornografía), siempre y cuando el usuario tenga la búsqueda segura activada.

144. Círculos de Google Plus: Google mejora las posiciones de aquellos sitios y personas que uno tiene agregado a Google Plus. Nuevamente, eso tiene que ver con las búsquedas personalizadas.

145. Número de Quejas de DMCA: Google filtra de sus resultados a aquellas páginas con quejas del DMCA (Acta de Derechos de Autor Digitales del Milenio). Esto igual se aplica sólo a los Estados Unidos.

146. Diversidad de Dominio: En Junio del 2012, Google llevó a cabo una actualización de su algoritmo en la que las grandes marcas fueron depreciadas de los resultados de búsqueda en favor de una mayor diversidad en los resultados de búsqueda.

147. Búsquedas Transaccionales: Es posible que Google ayude a mejorar el posicionamiento de sitios que tienen páginas con una orientación más transaccional, como es el caso de sitios de e-commerce. Por eso es importante apuntar a palabras clave que incluyan palabras transaccionales, como “compra”, o “vende”, entre otras.

148. Búsquedas Locales: Google suele mejorar las posiciones de aquellas páginas que tienen una orientación exclusivamente local, por sobre otros sitios más autoritarios. Por eso es importante optimizar los sitios para los resultados locales, sea a través del uso de sitios y directorios locales, orientación local, entre otros factores relacionados.

149. Noticias de Google: Aquellos sitios que suelen aparecer en los resultados de noticias de Google, pueden ser considerados de mayor autoridad y relevancia, lo cual puede ayudar a mejorar las posiciones de ciertas palabras clave con una orientación política, deportiva y de entretenimientos (temas que suelen aparecer en el sector de noticias de Google).

150. Preferencias hacia las Grandes Marcas: El cambio algorítmico Vince le dio un cierto empujón a los resultados de búsqueda de los sitios de las grandes marcas (Nike, Walmart, etc.). Sin embargo, esto sólo se aplica para las búsquedas de cola corta (es decir, palabras como “zapatillas”, o “comida”) y no para aquellas palabras clave “long-tail”.

151. Resultados de Compra: Similar al factor #149, es posible que Google le de mayor relevancia y autoridad a aquellos sitios que suelen aparecer en sus resultados de compra.

152. Resultados de Imágenes: Google también puede darle mayor relevancia a aquellos sitios que tengan una gran cantidad de imágenes dentro de su índice.

153. Resultados de “Bromas de Pascua”: Google tiene varias docenas de resultados de “bromas de pascuas” (easter eggs). Esto puede afectar negativamente a las posiciones (debido a que distrae de los resultados de búsqueda), si justo uno intenta posicionar una de las palabras clave que activan estas bromas (algo poco probable).

154. Resultados de Búsqueda Orientados a una Marca o Dominio: Aquellas búsquedas que estén orientadas a una marca o dominio específico pueden hacer que las páginas de ese sitio abarquen varios de  los resultados de búsqueda.

Factores Relacionados a las Redes Sociales

Estos son los factores más nuevos de todos, y apuntan a analizar la situación de un sitio en relación a su presencia en las redes sociales. Estos factores cada vez ganan más y más relevancia en el mundo del SEO, aunque todavía no hay nada definitivo en relación a su predominancia sobre los otros factores “más clásicos”.

155. Número de Tweets: Se ha comprobado que el número de tweets de una URL puede mejorar su posicionamiento dentro de los resultados de búsqueda.

156. Autoridad de los usuarios de Twitter: Es posible que los tweets provenientes de cuentas autoritarias tengan un mayor peso en el efecto que tienen sobre el posicionamiento de la URL en cuestión. Esta “autoridad” puede ser medida por la antigüedad, número de seguidores, número de tweets, u otros factores similares.

157. Número de “Me gusta” de Facebook: Similar al factor #155, el número de “Me gusta” que una URL puede tener puede mejorar el posicionamiento de la misma, a pesar de que Google no puede “leerlos”, debido a que la mayoría de estos pertenecen a cuentas privadas.

158. Número de “Compartidos” de Facebook: A diferencia de los “Me gusta”, los “compartidos” (o shares) que una URL puede recibir, tienen un mayor impacto en la autoridad de los últimos.

En palabras de Matthew Peters, Científico de Datos de Moz, los compartidos “actúan como una súper métrica, abarcando una variedad de factores (similar al PA y DA de Moz)“. Sin embargo, “obtener compartidos de Facebook (probablemente) no van a afectar de manera directa a los rankings de Google (de la URL en cuestión), aunque tengan efectos positivos que indirectamente promocione links, tweets, y otros factores que Google considere importantes.

Fuente: Moz.

159. Autoridad de las Cuentas de Facebook: Similar al factor #156, es posible que la autoridad de la cuenta de Facebook pueda, de alguna manera, pasar mayor autoridad a las URLs.

160. Pins de Pinterest: Es posible que Google tome en cuenta los Pins de Pinterest (los cuales actúan de manera similar a los Me Gusta de Facebook, o a los Retweets de Twitter) dentro de su algoritmo de posicionamiento.

161. Votos en Sitios como StumbleUpon y Digg: Posiblemente, los votos que una URL recibe de sitios de compartidos como StumbleUpon o Digg, entre otros, puedan mejorar la relevancia de las primeras.

162. Número de +1: Los +1 (de la red social Google Plus) que una URL puede recibir posiblmente tengan algún tipo de efecto positivo en la relevancia de las mismas, a pesar de que Matt Cutts haya dicho que no.

163. Autoridad de las Cuentas de Google Plus: Similar a lo dicho en los factores #156 y #159, la autoridad de las cuentas de Google Plus pueden pasar más peso a las URL compartidas.

164. Autoría Verificada de Google Plus: Es posible que la autoría verificada de las cuentas de Google Plus puedan pasar autoridad a las URL compartidas.

165. Señales Sociales de Relevancia: Es probable que Google tome la relevancia de la cuenta que comparte una URL para determinar la relevancia de la última.

166. Señales Sociales del Sitio: Las señales sociales de un sitio, medidas por varios de los factores mencionados anteriormente (como número de compartidos de la URL del sitio, o cantidad de seguidores/fans, etc.), pueden mejorar la autoridad y relevancia del mismo.

Factores Relacionados a la Marca del Sitio (o Dominio)

Estos factores afectan positivamente la marca del sitio o dominio en cuestión. Esto permite mejorar la autoridad de este sitio o dominio, lo cual tiene consecuencias positivas para toda el sitio. Aunque estos factores tienen alguna relación con los primeros mencionados (#1-10 y #62-79), estos están puramente enfocados en la autoridad de la marca del sitio o dominio, y no en el sitio o dominio de por sí.

167. Anchor Text de Marca: El anchor text de marca (es decir, el anchor text que tiene el nombre de la empresa del sitio en cuestión) es una señal importante para Google. Este permite mejorar la autoridad y relevancia de un sitio entero.

168. Volumen de Búsquedas de Marca: Para determinar la autoridad de un sitio, Google posiblemente tome en cuenta el número de búsquedas hechas en su buscador con el nombre de la marca en cuestión.

Mientras mayor sea el número de búsquedas de una marca, mayor será la autoridad de la misma.

169. Existencia de Página de Facebook con Volumen de Me Gusta: Aquellas marcas que tengan una página de Facebook con gran cantidad de fans y “me gusta” son consideradas de autoridad.

170. Existencia de Cuenta de Twitter con Volumen de Seguidores: Aquellas marcas que tengan una cuenta en Twitter con gran número de seguidores y tweets son consideradas de autoridad.

171. Existencia de Página Oficial de Linkedin: Aquellas marcas que tengan una página oficial en Linkedin son consideradas de autoridad.

172. Empleados Enlistados en Linkedin: Es posible que una empresa que tenga empleados en su página oficial de Linkedin pueda ser considerado como una señal de la autoridad de una marca.

173. Legimitidad de las Cuentas: Es importante que una empresa tenga cuentas de redes sociales legítimas y verificadas. De lo contrario, uno le está mandando una mala señal de marca a Google.

174. Existencia de Menciones de Marca en las Noticias: Mientras mayor sea una marca, mayor será las menciones que reciba en la web. Muchas de esas menciones pueden aparecer en las páginas de medios de comunicación masivos, como diarios y blogs autoritarios. Es posible que Google tome en cuenta estas menciones como una señal importante de marca.

175. Existencia de “Co-Citaciones”: Las co-citaciones son aquellas menciones que una marca recibe sin obtener links a cambio. Aunque parezca contra-intuitivo, Google toma en cuenta estas menciones como válidas e importantes.

Mientras más co-citaciones reciba una marca, mayor será la autoridad de la misma.

176. Número de Suscriptores de RSS: A pesar de que los RSS están decayendo cada vez más en uso y relevancia, es muy probable que Google tome en su algoritmo al número de suscriptores RSS que un sitio tiene.

177. Existencia de Localidad en Listado Local de Google Plus: Una señal de suave pero importante de la legitimidad de una marca, es tener su locación verificada en los listados de Google Plus.

178. Pago de Impuestos del Sitio: Es posible que Google tome en cuenta el hecho de que una marca esté registrada en la página del fisco de cada país como forma de autoridad y legitimidad de la misma. No sé si esto será aplicado solo para los Estados Unidos, o si para todo el mundo.

En el caso de Argentina, esta información es totalmente pública, por lo que se puede imaginar que para las empresas de ese país este factor pueda ser real y factible.

Estos factores son los que Google toma en cuenta al momento de ver si una página merece o no ser considerada como spam o no. Idealmente, tu sitio no debería (ni querría) verse afectado por ninguno de estos factores.

Factores Relacionados al Spam On-Site

Estos factores le permiten ver a Google cuánto spam tiene un sitio, en relación al nivel de optimización del último. Si el nivel de optimización de éste es excesivo, el sitio podría ser penalizado por ello.

179. Penalidad de Panda: Aquellos sitios que han sido afectados por el Panda, pierden prácticamente toda autoridad y relevancia en los buscadores. Esto hace que bajen sus posiciones fuertemente, hasta llegando a desaparecer por completo.

(He ahí la importancia de crear contenido de puta madre, y aplicar estrategias de link building de calidad.)

180. Links Externos Provenientes de “Malos Vecindarios”: Enlazar hacia “malos vecindarios” (esto es, sitios cuya temática y calidad es usualmente mala – sitios farmacéuticos, de apuestas, de pornografía, etc.) puede causar que se pierda autoridad.

Es por eso que uno debe tener cuidado hacia dónde enlaza: siempre hay que asegurarse que nuestros enlaces apunten hacia sitios y páginas no penalizadas. Esto se puede ver usando la métrica MozTrust, la cual mide cuán confiable es un link. Esta métrica se puede extraer de la MozBar.

181. Uso de Cloaking: El cloaking es una estrategia típica de los SEOs black hat. Esta puede consistir en muchos tipos de técnicas, una de ellas, es mostrarle un contenido a los usuarios (generalmente en AJAX, o Flash), y otro muy distinto a los buscadores (en HTML).

Este tipo de redirección viola las Directrices para Webmasters de Google, lo que significa que si te encuentran haciendo cloaking, te van a penalizar bastante feo.

182. Existencia de Pop Ups o Publicidades Molestas: Tener un sitio con muchas publicidades y pop-ups disminuye la usabilidad y calidad del mismo, lo cual Google toma como una señal de spam.

183. Sobre-Optimización de Sitio: Tener un sitio sobre optimizado es considerado de spam. Esta “sobre-optimización” puede verse en el uso excesivo de palabras claves en las etiquetas title, en la densidad de palabras clave dentro del contenido (o “keyword stuffing”), entre otros.

184. Sobre-Optimización de Página: Similar al factor anterior, tener una página específica sobre-optimizada es penalizable. Uno de los principales puntos de foco del cambio algorítmico Pingüino fue precisamente este factor.

185. Uso de Publicidades “Above the Fold”: Este factor es similar al #182. Aquellos sitios que tienen muchas publicidades Above the fold (“primer pantallazo”), pueden ser considerados como de baja calidad (es decir, spam).

186. Links de Afiliados Escondidos: Una práctica “black hat” bastante típica es esconder los links de afiliados, dándoles estilos que los hagan confundir con el fondo del sitio, o usando letras muy chiquititas, casi ilegibles, entre otras prácticas similares. Esto, desde ya, es considerado de muy mala calidad, y por ende, es penalizable.

187. Sitios de Afiliados: Google suele tomar con mucha precaución a los sitios de afiliados, aun cuando éstos no hayan utilizado prácticas “black hat”. Esto sitios suelen tener menor autoridad que otros sitios que no son exclusivamente de afiliados. Por esta razón, estos sitios son más fácilmente penalizados que otros sitios.

188. Existencia de Contenido Autogenerado: El dicho “El contenido es rey” es ya un cliché en el mundo del SEO. Eso es porque el contenido funciona muy bien.

Si, por el contrario, un sitio utiliza software que auto-genera contenido, y éste es detectado, éste va a ser rápidamente considerado spam, y en consecuencia, penalizado.

189. Esculpimiento de PageRank Excesivo: Esculpir PageRank es una práctica muy antigua (digamos, de hace unos 10 años, lo cual es el equivalente a la edad de piedra en la web), en la cual uno manipulaba el PageRank para beneficiar a unas pocas páginas – las que se desean posicionar.

Esta es una práctica totalmente ilegal, y penalizable.

190. Dirección IP de Servidor Penalizada por Spam: Tener un sitio en un servidor con una IP denunciada por spam puede penalizar a todos los sitios que se alojan en ese servidor.

191. Abuso de las Meta Etiquetas para Generar Spam: Aunque es bien sabido que las meta etiquetas no tienen poder de posicionamiento (la etiqueta title técnicamente no es una meta etiqueta), si Google encuentra que uno las usa para generar spam, puede tomarlo como un factor de mala calidad, lo cual puede hacer que se reduzca la autoridad de todo el sitio.

Factores Relacionados al Spam Off-Site

Estos factores, parecido a lo que dije en el grupo de factores anterior, son los que Google toma para ver cuánto spam tiene un sitio, en relación a la calidad de los links externos de este último.

192. Flujo Entrante de Links Innatural: El recibir un flujo entrante de links externos innatural, Google lo considera como spam.

De todas formas, la naturalidad del flujo depende de cada sitio. Si tu sitio suele recibir muchos links externos semanalmente, que un día reciba más de lo habitual no es peligroso.

Si por el contrario, tu sitio casi nunca recibe links externos, y en un día dado tu sitio recibe, digamos, más de 100, todos con el mismo perfil y anchor text, entonces Google sospechará rápidamente.

La clave está en no escalar el link building, esto es, no usar herramientas automáticas que creen muchos links rápidamente (herramientas como Scrapebox, o Xrummer).

193. Penalidad del Pingüino: Aquellos sitios que han sido penalizados por el pingüino (cambio algorítmico que apuntó fuertemente a la calidad de los links externos), son considerados como spam. Por ende, Google los posiciona muy bajo, si es que los posiciona del todo.

(Nota de Autor: Creo que este factor es un coctel formado por otros factores que pertenecen a esta categoría, los cuales desembocan en una penalización “Pingüinezca”. No creo que  Google tenga un factor “Pingüino” por sí solo dentro de su algoritmo.)

194. Perfil de Links Externo con un Alto Porcentaje de Links de Baja Calidad: Tener un sitio cuyo perfil de links externos es mayoritariamente de mala calidad, hace que todo el sitio se lo etiquete como de mala calidad.

Nuevamente, acá es donde  vemos la importancia de crear links de calidad. Serán menos, pero pesan mucho más.

195. Relevancia de los Dominios que Enlazan: Si un sitio recibe muchos enlaces de dominios que no tienen ningún tipo de relación con el primero, puede ser una señal de spam para Google. Esto fue demostrado por MicroSitesMasters.

196. Advertencia Innatural de Links: Una de las principales razones por las que yo creo que todo aquel que tenga un sitio web debe usar Google Webmaster Tools, es porque Google suele comunicarle información valiosa a los webmasters.

Una de las cosas más importantes que Google nos puede informar, es una advertencia sobre la detección de links externos innaturales.

Google toma esta advertencia muy en serio. Si tu sitio recibió esta advertencia, tómalo en serio: estás en la mira del Pingüino, y si no cambiás algo, vas a terminar siendo penalizado.

197. Links Provenientes de la Misma Clase C de IPs:  Esto ya fue hablado en el factor #82, pero en este caso, la idea se aplica a la inversa.

Si uno obtiene links externos provenientes de la misma clase C de IPs, estos pierden valor y autoridad. Peor aún, si uno obtiene cientos de links de la misma clase C de IPs, entonces Google posiblemente lo considere como una señal de spam.

198. Links con Anchor Text Peligroso: Tener una buena cantidad de links externos con anchor text que se podría considerar peligroso, puede dañar la autoridad del sitio. El tipo de anchor text más peligroso es aquel que contiene palabras clave de productos farmacéuticos (especialmente de viagra), pornografía y apuestas.

199. Existencia de Penalidad Manual: El algoritmo de Google suele desindexar a aquellos sitios que hayan sido manualmente penalizados por el equipo de spam de la misma empresa.

200. Venta de Links: Un sitio que vende links puede ser penalizado, debido a que esta práctica viola las Directrices de Webmasters de Google.

201. Sitio en el “Arenero” (Sandbox) de Google: El arenero es un espacio donde Google pone a todos aquellos sitios que cree que violan sus Directrices para Webmasters. Usualmente, las estadías de los sitios en el arenero son temporales, hasta que el equipo de Spam de Google decide si el sitio merece o no ser penalizado. De todas formas, si un sitio cae en el arenero (aun cuando no merezca estar ahí), éste suele perder todas sus posiciones por el tiempo que esté en el arenero.

Uno de los casos más comunes en el que un sitio cae en el arenero, es cuando es nuevo, o cuando tiene pocos links externos. En estos casos, si el sitio recibe una gran cantidad de links externos en poco tiempo, este puede terminar parando en el “arenero” de Google.

202. “Danza” de Google: La “danza” de Google se da cuando un sitio, generalmente nuevo, sube y baja sus posiciones en muy poco tiempo, hasta que se termina estancando en una posición.

Según una patente de Google http://www.seobythesea.com/2012/08/google-rank-modifying-spammers-patent/, esto sucede adrede, ya que Google intenta ver si un sitio está intentado “ganarle” a su algoritmo.

Como bien dije, esto suele suceder con sitios que pasan de no tener links externos, a tener muchos en poco tiempo (aún si estos son de calidad).

203. Link en la Herramienta de Desautorización de Enlaces: Si un link externo aparece en la Herramienta de Desautorización de Enlaces, entonces  éste no pesará más negativamente en el sitio al que enlaza.

204. Sitio en Propuesta de Reconsideración: Si un sitio que ha sido penalizado por alguno de los factores anteriores, dejará de serlo si ha pasado por una propuesta de reconsideración de Google, la cual es aprobada manualmente por el mismo equipo de Spam que dirige Matt Cutts.

¿Tienes dudas? Escríbenos a revistasblogs@gmail.com

Comentarios (0)

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *