algoritmo de google

¿Qué es Google Colibrí? Descubre el nuevo algoritmo de Google.

¿Cómo va a afectar a nuestra web Google Colibrí?

Google Colibrí

Foto vía Blogger 3.0

Cuando empece a pensar en el post para explicar los cambios que trae el nuevo Google Colibrí, empecé pensando escribir sólo sobre dicho algoritmo, pero terminé pensando que sería más útil encuadrar el algoritmo dentro del proceso de búsqueda de Google, y mencionar algunas de las más relevantes modificaciones que ha sufrido este a lo largo de su historia.

Es un repaso por todo el proceso que siguen nuestros contenidos en Google, antes de aparecer en los SERPs (páginas de resultados), poniendo el punto final con los cambios que nos trae Google Colibrí, el nuevo algoritmo de Google.

¿Qué es un algoritmo de búsqueda?

Los algoritmos de búsqueda son fórmulas matemáticas que clasifican los contenidos en Google, en función de unos criterios que Google establece, con el fin de devolver al usuario una respuesta correcta a la consulta que realizó en el buscador.

Para entender en que parte de la búsqueda de Google actúa el algoritmo, vamos a analizar cómo Google recoge todo el contenido de la red,  para luego devolver la respuesta a los usuarios. Supongo que muchos ya conocéis el funcionamiento de Google ( si es así podéis pasaros directamente al punto “Los cambios más significativos del algoritmo”  y saltaros esta primera parte), pero para quien no lo tiene tan fresco, voy a hacer un repaso rápido. :)

google-colibri-hummingbird

Foto vía emiliogil.com

Funcionamiento de Google en 4 pasos: ¿qué hace Google con nuestra web o nuestro contenido?

1. Spider/Crawler

Google tiene un robot, conocido como, Spider, que está constantemente rastreando contenido en la red, este rastreo lo hace a través de los enlaces (links), que hay en las páginas, empieza por paginas que ya tiene en su lista, que ya están indexadas, (ahora vemos lo que es),  y continua todo el recorrido por la red, navegando de unos links a otros. Este rastreo de contenido es enviado al Crawler, una base de datos, donde se guarda esa información, pero aún no está indexada.

Nota: Si nuestra nueva página o nuevo contenido no es rastreado por el robot, nunca aparecerá en Google, para ello es importante que cuando creemos nuestro sitio web o nuevo contenido, consigamos que un sitio que ya esté en la lista de Google nos enlace.

2. Indexación.

Para conseguir indexar nuestra página, antes de nada, debemos de decir a Google, que estamos en la red:

  1. Bien cómo os comentaba antes, consiguiendo enlaces desde otras páginas que lleven a nuestro sitio web.
  2. O debemos crear un sitemap.xml, que es lo que lee el robot para facilitarse el trabajo.
  3. Desde Webmaster tool (debemos haberlo dado de alta) enviando nuestro sitemap.
  4. Por supuesto, añadiendo nuestro sitio en todas las redes sociales.
  5. Y por último, también se puede ir al buscador, encontrar el enlace “enviar url” y enviar la url de nuestra página.

En la indexación se analiza la información recogida, y sólo la información de calidad se añadirá al índice de búsqueda de Google. En nuestro argot “Google sabe que existimos”, ya estamos en su índice.

No confundir con posicionar; posicionar es incluir una palabra o conjunto de ellas en los primeros resultados de la búsqueda. Una vez indexados, comenzamos nuestra estrategia de posicionamiento.

 Ejemplo: si alguien busca “¿Las ranas tienen pelo?”, y nosotros hemos creado un artículo discutiendo esta teoría :), si Google ya sabe que existimos, es decir, ha indexado el artículo, apareceremos en las búsquedas, otra cosa es que aparezcamos en las primeras posiciones de la búsqueda, para conseguir esto debemos hacerlo con un buen posicionamiento.

3.  Query processor (procesador de consultas)

Es un servidor donde se procesan las búsquedas ó consultas. Si un usuario hace esta consulta ¿Las ranas tienen pelo?”, el procesador de consultas, solicita a Google toda la lista de páginas o  toda la información, de su índice, que contiene estás palabras o todas las web con contenido relacionado con esta pregunta.

Ahora viene la madre del cordero, ¿qué fórmula aplica Google para dar la respuesta adecuada a los usuarios?, de otra forma, ¿cómo selecciona las web o los contenidos con la mejor  respuesta a la consulta del usuario? Aquí aparecen los algoritmos de Google, el de Google es “secreto”, el secreto más famoso del mundo.

4. Algoritmos

Cómo ya dijimos en la definición son fórmulas matemáticas que intentan ordenar los contenidos en Google. De entre la lista que ha obtenido el procesador de consultas, el algoritmo es el encargado de seleccionar las mejores respuestas o las que él cree que son la mejor respuesta, y elaborar las páginas de resultados, que vemos cómo usuarios, (los SERPs=resultados de búsqueda).

Google intenta hacerlo cada vez mejor, por eso sus algoritmos están en continua evolución, de hecho estos cambian cada año unas 500 veces.

Cuando los usuarios realizan una pregunta, volvamos con nuestras ranas de nuevo :) ¿Las ranas tiene pelo? El algoritmo de google buscará si las palabras clave, “ranas + pelo” aparecen en los títulos de los artículos, si aparecen juntas, cuantas veces aparecen, sí están en la URL, si hay coincidencia semántica, si hay fotos etiquetadas con esas palabras, si tiene calidad el contenido, si hay enlaces a la web, y así hasta 200 o más preguntas.

Y por fin después de estos 4 pasos, Google nos da las tan ansiadas respuestas, y todo esto en unos segundos. ¡Google se lo curra,eh?!

Ahora ya sabemos porque Google es tan rápido, porque busca en su índice no en toda la red.

 Los cambios más significativos en el algoritmo de Google

Aunque vamos a hacer hincapié en Google Colibrí, quiero hacer un repaso por los cambios más significativos del algoritmo de Google, desde su comienzo.

Pagerank

El primer algoritmo que Google utilizo fue el pagerank, fue inventado por Larry Page, y Sergey Brin, a finales de los noventa, su nombre hace mención a uno de sus creadores.

Mide la importancia de una web o página, en función de los links que nos llevan a ella, es decir, sí mucha gente ha puesto un enlace a nuestra web, es que lo que publicamos es bueno o así lo creía Google, ahora cómo sabéis hay muchas más connotaciones. Es un sistema para puntuar las web en función de los links que recibe.

Hace unos años era de vital importancia, pero con el tiempo otras piezas de los algoritmos han ido tomando más importancia. Hoy en día, esto es sólo una cuestión más dentro del algoritmo, que ayuda a que tu web se indexe más rápidamente (dependiendo de que los links sean de más calidad o menos), pero no para distribuir los primeros puestos de los resultados del buscador, de hecho,según Matt Cuts (el SEO de Google) ha muerto definitivamente porque aunque sigue funcionando internamente el código que lo hacía público se rompió y no tienen a nadie trabajando en ello, con el tiempo seguramente lo dejarán morir. La pregunta del millón es; ¿Cómo veremos ahora nuestros ranking, señor? :)

Vince

En 2009 el algoritmo de Google, introduce mejoras asociadas a los sitios web con buena reputación y a las marcas, es decir, si un usuario buscaba, “Chocolate con leche” aparecía enseguida marcas como Nestle, Milka, ect..

Caffeine

En Agosto de 2009 aparece una de las más grandes actualizaciones llevadas a cabo por Google, si la comparamos con las demás actualizaciones que se irán incorporando después. El algoritmo presentó una arquitectura diseñada para indexar páginas más rápidamente y con información actualizada, intentando conseguir indexar los contenidos tan rápido como  son generados  a través de  redes sociales cómo Facebook o Twitter. En 2010 dedicamos un post a Caffeine, échale un vistazo.

Mayday

Nueva actualización que llegó en 2010, que pretendía mejorar la calidad de los resultados en las consultas de larga cola (long tail).

Un inciso por si alguien no recuerda lo que son: Un grupo de palabras clave, por ejemplo: “fotos ranas pelo”, si nuestro artículo sobre esta teoría lo queremos posicionar mediante esta palabra clave de larga cola, tendremos menos tráfico, pero las búsquedas que se realicen de esta palabra de larga cola, darán una mejor conversión, pues estás dando la respuesta casi exacta a la búsqueda.

Con esta actualización se pretendía que hubiese una mejor calidad en los resultados de estas búsquedas.

 Google Panda

En 2011, esta nueva actualización del algoritmo de Google, se centró en suprimir los sitios con contenidos de baja calidad, contenido duplicado, web con poca usabilidad y con mucha publicidad. Y premió los sitios con un contenido de calidad, novedoso, que fuese de interés para el usuario, con un buen diseño y gran usabilidad. En definitiva el contenido de calidad y las web bien diseñadas se premiaban, esto nunca ha dejado de pasar.

Este algoritmo de Google, afecto al menos al 12% de las webs. Desde entonces Google Panda, no ha dejado de actualizarse, favoreciendo el contenido original, innovador, juicioso y de investigación.

Google Penguin (Pingüino)

En abril de 2012 aparece otra actualización del algoritmo de Google, esta vez centrada en la guerra contra el spam en las webs (contenido de baja calidad, posicionado de forma artificial, por compra y venta de enlaces).

Os dejo un video que explica muy bien, esta actualización.

 

Además en esta actualización aparece el gráfico de conocimiento ( knowledge graph), aquí tenéis un pagina interactiva, con un vídeo que lo explica muy claramente. Básicamente es una nueva herramienta que permite relacionar las búsquedas, no sólo con palabras, sino con objetos, lugares, personas, obteniendo una visión más completa de la consulta que se realizó.

 Colibrí (hummingbird)

En septiembre de este año, se presenta de una manera formal  la nueva fórmula del buscador,Google Colibrí, este es un cambio completo en la estructura del algoritmo, algo que no pasaba desde Caffeine, pues Panda y Penguin, eran modificaciones dentro de la estructura de la fórmula o filtros en la fórmula.

Google de nuevo ha vuelto a elegir el nombre de un animal para su algoritmo, con tanto nombre de animal, esto parece un zoológico. :) Le pusieron Colibrí porque este, según ellos, es rápido y preciso.

Vamos a ir destripando la nueva fórmula de Google, y para comenzar quiero que os quede muy clara una idea: Google Colibrí va a incidir en el procesamiento de la consulta, logrando así una mejora en los resultados de la búsqueda.

Hasta ahora para responder a una respuesta de un usuario enviaba información de enlaces( en definitiva páginas), que tenían palabras clave específicas ahora veremos que lo que nos mostrará serán enlaces relacionados con el contexto general de la consulta. Ahora lo entenderemos mejor…..

¿En qué aspectos incide Google Colibrí?

Google cambia las reglas de búsqueda

Pensad cómo hacíamos las preguntas a Google. Si tenias algo de idea de cómo funciona Google sabíamos que lo importante eran las palabras clave así  que si queríamos saber cuál es el restaurante más cercano a nuestra casa de comida japonesa, escribíamos:

Restaurante+comida japonesa + granada.

En vez de escribir : ¿cuál es el restaurante más cercano a mi casa de comida japonesa?

Pero la realidad es que se hacen más  búsquedas con preguntas que búsquedas por palabras clave, por ello, Google Colibrí, dará más relevancia a las preguntas. ¡Recordad esta premisa!

Ahora su nuevo algoritmo está preparado para entender preguntas con todas sus palabras, no sólo palabras clave, ésto hará la relación entre usuarios y Google más fluida.

Búsqueda conversacional

Continuando con lo que comentaba en el primer punto, con esta nueva formula Google pretende mejorar las búsquedas conversacionales, simplemente Google quiere entender mejor al usuario, como si estuviese hablando con él. Su objetivo es comprender las consultas más completas y complejas.

Google es un robot, pero un robot que intenta entender a los seres humanos y un robot que intenta ser cada vez más inteligente.

Si le preguntamos a Google: ¿Cómo está el día en Madrid hoy? Nos dará datos del tiempo que hace en Madrid. Antes para obtener esta respuesta teníamos que poner en la búsqueda: Tiempo en Madrid hoy.

Google no quiere seguir centrándose en la búsqueda de la coincidencia de palabras, su objetivo es entender todas las palabras de la consulta y poder interpretarlas. No es cómo hablarle a nuestro vecino pero se parece, y más desde que Google  integró en la barra de búsqueda un micrófono, en el que sólo tienes que hacer clic y empezar a hablar.

 Búsqueda semántica

Google Colibrí también ha mejorado la búsqueda semántica,  no es que Google haya empezado ahora a utilizar los sinónimos, eso ya lo hacía desde 2002, cómo podemos ver en el gráfico:

Timeline

Foto vía techcrunch.com

El buscador quiere ir más allá y ahora la búsqueda semántica da al buscador la posibilidad de crear la página de  resultados interpretando el significado de una frase por el contexto, mientras que antes sólo se centraba en los términos que creía más relevantes de una frase.

Google quiere centrarse en la intención del usuario y no en la palabra clave en sí.

Dos palabras pueden ser sinónimas o no dependiendo del contexto, por ejemplo “coche y automóvil” son sinónimos en España, pero “coche y carro” también son sinónimos en América, si utilizamos “carro”  en un contexto u otro Google puede identificarlo cómo coche o cómo carro en español, que es un vehículo de transporte formado por un armazón montado sobre dos ruedas, con un tablero y una o dos varas para enganchar los animales de tiro.

Estáis pensando que he buscado la definición, pues sí, todo el mundo sabe lo que es un carro, pero definirlo. :)

Larga cola

Este tema es algo controvertido desde que apareció el nuevo algoritmo,

Por un lado la postura de que las palabras clave de larga cola, están más en auge, pues si Google ahora entiende mejor una pregunta completa, es decir, todo el conjunto de palabras, entenderá mejor las palabras clave de larga cola.

Google analizará las combinaciones de palabras, tratando de determinar el sentido de la búsqueda. Según esta postura pueden ser una manera de buscar información específica que de otra manera no sería fácil encontrar, por ejemplo, si una web vende productos muy específicos, posicionados con palabras clave de larga cola, cuando los clientes que quieran ese producto lo encuentren, su conversión será muy alta, en este sentido que Google fortaleciera las palabras clave sería de gran ayuda.

La otra postura, es que Google, quiere alejarse de todo lo que sea la redacción exacta, alejarse de las palabras clave, incluyendo las de larga cola y quiere centrarse en el significado de todas las palabras por el contexto, cómo comentaba en el apartado de la búsqueda semántica.

Os pondré un ejemplo, a Google le dará igual tener para la búsqueda de restaurantes de comida rápida en Berlín, “Comida rápida en Berlín” que “Berlín comida rápida”.

Esto es muy interesante desde el punto de vista desde el posicionamiento (SEO).

¿Está muriendo el SEO? La repuesta es no, sólo está evolucionando.

Quiero aclarar que con lo anterior no quiero que penséis que Google, ha dejado de dar importancia a las palabras clave,  y que debemos de dejar de poner buenas palabras clave en los títulos o dejar de hacer nuestros post con palabras claves relevantes para las consultas de los usuarios, porque tampoco es así,  lo único que debemos de intentar hacer es orientar el contenido para que dé respuesta a las búsquedas, bien con palabras clave, pero sin pasarse, bien con sinónimos o simplemente utilizando un vocabulario que pueda inducir a Google a pensar que esa es la respuesta a la consulta de los usuarios. 

El objetivo es proporcionar resultados que en realidad respondan a la pregunta.

 Gráfico del conocimiento (Knowlogde graph)

Desde la actualización de Google Penguin, tenemos con nosotros él gráfico de conocimiento. Desde hace 15 años Google ha estado recogiendo millones de datos, llegando a crear lo que puede ser la mayor base de conocimiento hasta el momento. Imaginemos una base de datos que relacione datos,con personas, con lugares, con objetos, ect..

Esta herramienta, es muy útil para el nuevo algoritmo de Google, pues le permite al motor de búsqueda entender mejor la relación entre palabras,objetos, personas, lugares, no sólo entre palabras claves individuales. Así las páginas que coincidan con el significado de una búsqueda se posicionarán mejor que las que sólo coincidan con las palabras clave. El gráfico de conocimiento es una parte más dentro de Google Colibrí.

 Preguntas de seguimiento.

Google será capaz de responder a preguntas encadenadas, os lo explicaré con un ejemplo, si un usuario busca imágenes de “ranas con pelo”  y luego pregunta “¿color de pelo más común?” Google entenderá que estas preguntando el color del pelo de las ranas.

Recordaros que las preguntas en forma directa, tendrán un mayor valor de ahora en adelante, así si vamos a poner títulos a nuestros post, hagámoslos en forma de pregunta. Qué, cómo, porqué, cuando….

Simplicidad a la hora de entregar la información

Si hay una consulta A y una consulta B que significan lo mismo, pero están hechas con distintas palabras, Google ya no nos va a devolver dos SERPS, sino sólo uno.

Los enlaces y ranking

¿Han muerto los enlaces con el nuevo algoritmo y las clasificaciones por ranking? La respuesta es no, siguen siendo importantes, pero los enlaces deben aparecer en un contexto adecuado dentro del tema de nuestro post o nuestra web. Aunque esto no es nada nuevo, Google siempre ha premiado los enlaces de calidad, pues ahora lo seguirá haciendo.

Que hacer y que no hacer para Google Colibrí

Google Colibrí se presentó en septiembre, pero en la presentación ya advirtieron que llevaba un mes activo y que la mayoría de la gente no lo había notado.

En colación a esto, ahora que sabemos que está, quiero que nos quede claro, que no hay que ponernos como locos a reformar nuestros contenidos, pues si es un contenido de calidad, reformarlo, intentando hacer ver al Colibrí que estamos presentes, nos llevaría a empeorar este contenido.

No a la compra de enlaces, no a la construcción de frases sin sentido con palabras clave, no a la copia de contenido, en definitiva no a lo artificial, ahora Google premia lo natural y lo real, (todo esto no es nuevo).

, debemos crear mejor contenido, que dé respuesta a más preguntas, consiguiendo un mayor abanico de información de nuestro nicho de negocio. Google colibrí está dándonos la oportunidad de que los usuarios nos encuentren por una mayor variedad de significados o contextos,  cuantas más páginas más posibilidades de responder a las preguntas.

a la creación de videos , sí a la creación de infografías, sí tanto para las grandes como para las pequeñas empresas.

a la creación de una gran comunidad en torno a redes sociales, cómo no podía ser de otra manera Google sigue premiando la relevancia de nuestros contenidos en las redes sociales, es la manera que tiene para ver que calado han tenido nuestros contenidos en los usuarios, si han tenido una mayor consulta , y en consecuencia si el contenido ha sido realmente útil para el usuario. Y por supuesto  a indicar que somos los autores de nuestros contenidos, Google nos da esa posibilidad con Google Authorship.

a hacer nuestra web, mobile friendly, Google quiere que nuestra web esté adaptada para dispositivos móviles. Cada vez más las consultas de los usuarios provienen desde dispositivos móviles.

 ¿Google sólo complace a los usuarios?

En relación a la idea que os comentaba al principio, sí el algoritmo va a incidir en el procesamiento de la consulta, intentando ver su significado, esto será de gran ayuda para los usuarios, ¿pero y para nosotros los bloggers?

Google está tratando de encontrar el significado más correcto de cada consulta para darle una respuesta más acertada, hasta ahora no daba respuestas directas a los usuarios sólo mostraba las web donde la podíamos encontrar, que en ese caso, bueno podemos seguir compitiendo entre nosotros para ver que contenidos serán de mayor calidad, pero sí la respuesta es dada ya por Google, desde su base de datos, ¿qué posibilidades tenemos de seguir en pie y por qué deberíamos siquiera molestarnos en intentarlo?

Mientras Google sigue su camino, no tenemos de otra que seguir mejorando nuestro trabajo, así que vamos a hacer posts que den respuesta a preguntas, teniendo en cuenta todos los parámetros que hemos comentado y en los que incide el Colibrí. Sí Google quiere que conversemos con él, vamos a escribir nuestros posts cómo sí le estuviésemos respondiendo a nuestro vecino, de forma  natural, de fácil entendimiento y clara. Pues las páginas o web que coincidan con el significado de la búsqueda rankeran mejor que las que sólo tengan la coincidencia de palabras clave.  Porque seamos realistas repetir unas palabras 20 veces en una explicación, no es lo que hacemos de forma natural al hablar.

 

Después de este recorrido surgen muchas preguntas, ¿Apostaréis por la estrategia de palabras clave de larga cola o no? ¿Habéis notado cambios en vuestras webs?  y para terminar ¿Llegará el día en que Google no nos necesite?. El debate está servido. :)

 

 

La importancia del contenido por encima de los enlaces

Tras la llegada de Google Panda y, más aún, tras el comienzo del ‘reinado’ del gran pingüino (conoce más sobre Google Pingüino), una cuestión ha quedado clara: los enlaces en cantidad han quedado a un lado para que el contenido le gane en importancia.

contenido-seo

Es algo que desde Sempatiza venimos advirtiendo desde hace ya bastante tiempo (incluso mucho tiempo antes de la llegada de Panda). Y es algo que, de hecho llevamos a cabo cuando siempre rechazamos el link building y preferimos ir por el camino de la creación de contenido de calidad.

Es una cuestión que buscadores como Google están teniendo cada vez más en cuenta no solo a la hora de reposicionar a mejor determinadas páginas Webs que ofrecen a sus lectores contenidos de calidad cada día, sino para penalizar a aquellas Webs que no solo abusan de técnicas SEO o tácticas SPAM, sino que ofrecen contenidos breves, duplicados o de malísima calidad.

No debemos olvidarnos de una cuestión fundamental: si un contenido es especializado en el tema que trata y además ofrece al usuario lo que busca, no hay duda que será compartido por los lectores.

Pero ¿cómo hacer un contenido de calidad? Es cierto que no es sencillo, pero tampoco imposible. Basta con ofrecer una información completa al lector respecto a la temática que vayamos a tratar; es decir, nada de ir por encima para escribir rápidamente y publicar el artículo. Debemos ser pacientes y tratar el tema de manera extensa, tocando todas las cuestiones que al usuario le interesan y que en definitiva buscará cuando acceda al mismo a través del buscador (o a través de su visita directa a nuestro sitio si es un lector habitual).

Obviamente es muy sencillo crear un contenido breve, lo difícil es profundizar en el tema y escribir un artículo con más de 250 palabras, pero no es imposible, y eso será lo que nos diferencie de nuestra competencia más directa y nos ayude a mejorar nuestro posicionamiento en los buscadores. Paciencia, pero mucha constancia.

Imagen | Limeryk

Nueva actualización de PR y de Google Panda

Hace algunas semanas nos preguntábamos si en realidad Google tenía preparada para finales de este año una de esas grandes actualizaciones que a muchos editores hacen que nos tiemblen las piernas (o las manos) ante el menor rumor. Y lo decíamos teniendo en cuenta el periodo de actualización de los últimos cambios, llevados a cabo sobretodo en los meses anteriores.

google-actualizacion

Parece que durante el fin de semana del 17 y 18 de noviembre hubieron algunos cambios que afectaron a muchas páginas Webs, las cuales han visto reducido su tráfico hasta en una cuarta parte. Parece que, de hecho, este cambio ha afectado sobretodo a páginas con mucho tráfico.

Respecto a este cambio Google no ha confirmado nada, como de vez en cuando sí tiende a hacer (especialmente cuando el cambio es más que evidente, porque afecta a un volumen importante de sitios Web).

Pero sí confirmó que en los días siguientes se iba a producir una nueva actualización de Google Panda, con cerca de 500 cambios y mejoras que mejorarían la información que se muestra a los usuarios a través de los diferentes resultados de búsqueda.

Así lo indicó hace ya algunas semanas el propio Matt Cuts, aunque en esta ocasión informó que los cambios afectarían a un 1.1% de las búsquedas en inglés.

Lo que sí igualmente se ha confirmado es que el pasado día 17 de noviembre se produjo una nueva actualización de PageRank, lo que vendría a indicar que –como esperábamos- Google desea terminar el año por todo lo alto.

Top Heavy 2: Actualización de Google octubre 2012

Después de que el pasado día 5 de octubre Google realizara la tercera actualización de Penguin (o Google Pingüino en español, para ser más precisos), otra semana más el buscador ha llevado a cambio una actualización en sus algoritmos.

Y es que los editores Web y SEOs no ganamos para sustos, ya que como estamos comprobando desde el pasado 27 de septiembre, Google está llevando a cabo actualizaciones de algoritmo cada semana:

  • Actualización 20 de Panda: 27 de septiembre de 2012.
  • EMD Update 1: 28 de septiembre de 2012.
  • Actualización 3 de Penguin: 5 de octubre de 2012.

En esta ocasión la nueva actualización se llevó a cabo el día 9 de octubre de 2012, y consiste en una actualización del filtro del diseño de la página, que en enero de este mismo año ya se llevó a cabo (afectó a menos del 1% de las búsquedas en inglés), y fue bautizada con el curioso nombre de “Top Heavy”.

Matt Cutts anunció la actualización en su cuenta de Twitter, y lo calificó como “menor”, diciendo que afecta notablemente a apenas el 0,7% de las consultas en inglés.

Esta actualización en concreto significa que aquellos que se vieron afectados en enero por los cambios del buscador, si han llevado a cabo los cambios que Google recomienda, ahora quedarán en libertad con esta segunda actualización.

Como recordarás, esta actualización en concreto penalizada a los sitios Web con un exceso de publicidad en la parte superior, lo que obliga a que los usuarios deban desplazarse más abajo para poder leer los contenidos de la página.

Por tanto, la solución estaba con eliminar esos bloques de anuncios, o bien situarlos más abajo del contenido.

Vía | Search Engine Land

AuthorRank, la actualización de Google que viene

En agosto del año 2005 Google presentó la patente Rank Agent, que poco después fue magistralmente decodificada por Bill Slawski. En esta patente, Google hacía referencia a la clasificación de “agentes”, y su uso se basa en la recepción de datos de los contenidos que crean estos agentes (o autores) y sus interacciones como un factor para determinar su rango (o importancia).

Esta patente sugiere que obtendrían una mayor importancia (y por tanto disfrutarían de un mejor posicionamiento) aquellos “agentes” populares que tengan un contenido asociado, por encima de otros que tienen su contenido sin firmar (léase como que no han enlazado la autoría de sus post con perfiles como por ejemplo Google+).

Parece que años después Google quiere retomar esa patente y hacer algunos cambios en sus resultados de búsqueda, ya que el pasado año ya el propio buscador manifestó que tenía el deseo –y la necesidad- de identificar a los autores de las páginas Web con el fin de mejorar la calidad de búsqueda.

De hecho, en el mes de septiembre del año pasado Google presentó una nueva patente que se convertía en la continuación de aquella, haciendo referencia a algo así como una “plataforma portátil de identidad”.

Pero ¿qué es o será AuthorRank?

Debemos tener en cuenta que AuthorRank no supondría un reemplazo para el PageRank, sino que Google la utilizará para informar PageRank, lo que se traduce en que permitirá al buscador clasificar contenido de alta calidad de forma mucho más adecuada.

authorrank

Esto se traducirá en que un autor de artículos reconocido, que escriba contenidos de calidad, conseguirá un mejor posicionamiento, por encima de aquellas otras páginas Web o blog que no hayan firmado la autoría de esos artículos (por ejemplo, enlazando la página de autor del site con su perfil de Google+).

Es probable que PageRank contenga un atributo adicional que podría ser utilizado para ajustar la influencia de los enlaces, de forma que un enlace de contenido de un AuthorRank alto podría transmitir una mayor confianza y autoridad.

¿Qué elementos tendría Google en cuenta para formar el AuthorRank?

  • ¿Con qué frecuencia es compartido tu contenido?
  • ¿Qué tan rápido es compartido tu contenido?
  • ¿Quién comparte tu contenido?
  • ¿Los usuarios que comparten el contenido tienen experiencia en el tema?
  • ¿Los mismos usuarios comparten siempre el contenido?
  • ¿Cuántos comentarios ha generado el contenido?
  • ¿Quién lo ha comentado?
  • ¿Son los comentarios sobre el contenido de calidad?
  • ¿Fueron estos comentarios positivos?
  • ¿Con qué frecuencia el contenido alcanza el +1?
  • ¿Son siempre los mismos usuarios quienes respaldan el contenido?

¿Cómo crear tu AuthorRank?

  1. Marca tu contenido como propio, incluyendo en el código HTML la etiqueta rel=author.
  2. Comparte y participa lo máximo posible en Google+.
  3. Produce contenido de calidad, constantemente.

Más información | Blind Five Year Old / SEOMoz

Nueva actualización de Google: diversidad de dominios

Y finalmente llegó. Desde hace algunas semanas se venía cuestionando sobre la posibilidad de que, a finales de verano, Google nos sorprendiera con una nueva actualización de algoritmo, ya fuera una nueva versión de Google Panda o bien de Google Penguin.

actualizacion-google

Según opinan muchos editores en diferentes sitios Web parece que finalmente Google llevó a cabo una nueva actualización de Panda a mediados de agosto, llegando concretamente a la versión Panda 3.9.1.

Se trató de una actualización que, se supone, afectó a muy pocos sitios, dado que según parece Google se quedó en esta ocasión sin números para llegar a la versión 3.9.1, lo que puede indicar que tuvo un impacto bastante pequeño (de hecho afectó solo a menos de un 1% de los sitios).

En esta ocasión nos encontramos con otra nueva actualización. Y es que ha sido el propio Matt Cutts quien ha indicado a través de su Twitter que Google ha llevado a cabo mejoras en sus resultados de búsqueda para mejorar la diversidad de dominios.

Seguramente que en algunas búsquedas te habrás encontrado con que Google mostraba en una misma página de resultados extractos de búsqueda de un mismo dominio, de forma que este sitio Web ganaba en importancia porque podía ocupar dos o tres posiciones en la primera página. Esto era bastante habitual, por ejemplo, con los hilos de foros repetidos.

Pues bien, con estos cambios Google corrige eso: que no aparezcan demasiados resultados del mismo dominio de forma seguida.

Lo que también se demuestra es que el baile de actualizaciones será más habitual de lo que era hasta estos momentos. Google ha confirmado que no solo no van a reducir la frecuencia de actualizaciones importantes, sino que incluso la van a aumentar.

Imagen | theanthonyryan

Google Panda VS Pingüino

Si hace algunas semanas nos preguntábamos sobre la posibilidad de que Google pudiera estar trabajando en un cambio de algoritmo importante para finales de verano, hoy debemos volver a hacer un repaso sobre sus dos últimos grandes cambios: Google Panda y Google Pingüino.

panda-y-penguin

Debemos recordar que, cada año, Google lleva a cabo más de 200 cambios, pero en determinados momentos realiza cambios o modificaciones de algoritmo importantes en tanto en cuanto tienden a afectar a un gran número de sitios Web en todo el mundo.

Google Panda

Lo que principalmente diferencia a este gran cambio de Google es que el contenido de un sitio Web tiene un impacto importante en los rankings de búsqueda, en lugar de sólo páginas individuales determinadas.

¿Dicho de otra forma? Si un número determinado de páginas del sitio son tachadas por el buscador como de “contenido terrible” (de mala calidad, SPAM…) entonces todo el sitio puede ser penalizado.

¿Qué favorece Google Panda? No hay duda que Panda es el algoritmo de los autores, del contenido de calidad. Panda favorece los artículos originales, novedosos, nuevos y de calidad, especialmente los análisis reflexivos o de investigación.

Google Pingüino

Se trata sobretodo de un algoritmo que lucha especialmente contra el SPAM en los sitios Web y otras tácticas que el buscador no considera como muy buenas o positivas: compra/venta de enlaces, enlaces ocultos, cloaking…

También es un algoritmo que lucha contra los enlaces de baja calidad que los usuarios pueden encontrar en los resultados de búsqueda que ofrece Google.

Vía | Website Magazine

Actualización Google Panda 3.7

Aunque Google ha tardado algunos días en confirmarlo, parece que nuevamente se ha llevado a cabo una actualización de Google Panda durante este fin de semana, de forma que ya nos encontramos ante la versión Google Panda 3.7.

google-panda-3-7

De esta forma casi podríamos confirmar que Google no lleva a cabo una actualización de Panda cada mes de manera regular, sino entre uno a dos meses aproximadamente, dado que el último cambio en este sentido (Google Panda 3.6) tuvo lugar hace ya 6 semanas.

De momento se desconocen los cambios que supone esta actualización, aunque sí se sabe que afectará al 1% de las búsquedas a nivel mundial. Por lo que no podemos más que repetir lo que hemos indicado ya en bastantes ocasiones:

  • Publica contenido original y de calidad.
  • Evita la copia y duplicación de contenidos.
  • Actualiza tu página cada día, a ser posible en varios momentos del día.
  • Mantén tu página Web ordenada.
  • No abuses de la publicidad.

Respecto al día en que se llevó a cabo la última actualización, parece que fue el viernes, aunque probablemente no se estabilizó hasta pasado uno o dos días (en definitiva prácticamente durante el fin de semana).

También deberíamos añadir que si tu sitio Web se ha visto afectado con esta actualización, no te obsesiones, dado que si lo haces bien durante este mes es probable que tras la siguiente actualización tu Web vuelva a donde se encontraba. Paciencia y constancia.

Novedades importantes de la semana en el ámbito SEO

Si bien es cierto que comenzábamos la semana con una buena noticia en lo que se refiere a descubrir qué red social es la mejor a la hora de incrementar o conseguir un buen número de leads (LinkedIn es la mejor red social para conseguir leads), los días se han puesto cada vez más interesantes en el ámbito o sector SEO.

Por un lado, el martes conocíamos la solicitud de una interesantísima patente llevada a cabo por los desarrolladores de Bing, consistente en tener en cuenta los datos que los usuarios dejan en redes sociales como Twitter o Facebook y adaptar los resultados de búsqueda en función de su estado de ánimo, sus preferencias o gustos, o incluso su nivel cultural.

Se trata de una mejora que, en caso de que su puesta en marcha sea efectiva supondrá una auténtica revolución, dado que a nadie se le escapa que un mismo usuario puede no obtener los mismos resultados de búsqueda, o bien estos resultados variarán de un usuario a otro, por lo que el trabajo SEO pasará casi sin ninguna duda a un segundo plano.

Pero la semana nos tenía preparadas una novedad aún más interesante: la llegada de Google Pingüino. Lo que se convierte en el primer gran cambio de algoritmo que realiza Google en su buscador, al menos desde un punto de vista más público que privado (no debemos olvidarnos que Google está continuamente haciendo cambios/mejoras en sus algoritmos; otra cosa es que los usuarios o Webmasters se den realmente cuenta de ello, cuestión que solo suele ocurrir cuando nos encontramos ante cambios que, al menos, repercuten a un 2% de las búsquedas como mínimo).

No hay duda que Pingüino es un paso más respecto al objetivo de Google de ofrecer a sus usuarios páginas Webs con contenidos de calidad, penalizando a aquellas Webs que abusan de contenido breve y de poca calidad, duplicados o copiados de otros sitios.

Es cierto que, al menos de momento, aún es pronto para descubrir los cambios que supondrá la llegada del pequeño Pingüino, pero ya vamos conociendo un poco más, como vimos ayer en nuestra nota especial sobre qué penaliza Google Pingüino.

Que disfrutéis del fin de semana.

¿Qué penaliza Google Pingüino?

En el día de ayer precisamente te hablábamos de la llegada de Google Pingüino, que parece haber ‘asesinado’ a un animal de mayor tamaño que ya revolucionó el sector SEO el pasado año tras su llegada en el mes de febrero a la versión .com del buscador, y en agosto a las demás versiones a nivel mundial: Google Panda.

Como sabemos, y tal y como te hemos comentado en bastantes ocasiones, Panda supuso la llegada de una forma completamente distinta de hacer SEO, dado que primaba automáticamente aquellos contenidos originales que el buscador consideraba como de “calidad”, y penalizaba contenidos duplicados, con muchísimas faltas de ortografía y originalmente poco compartidos por los usuarios (esto es, los lectores de esas mismas páginas Webs).

Es cierto que apenas ha pasado una semana desde la llegada del pequeño pingüino, por lo que de momento existen muchas suposiciones sobre qué penalizan los cambios que ha sufrido el buscador en los últimos días.

Pero la realidad es que ya se está conociendo algo más al respecto, más aún cuando muchos de los sitios Webs penalizados están siendo conscientes del motivo que les ha llevado a, por ejemplo, perder en torno a un 50% del tráfico.

¿Qué penaliza Google Pingüino?

Si bien es cierto que Panda penalizaba a sitios Web que duplicaban y copiaban contenidos de otras páginas, o incluso ofrecían contenidos pequeños, mínimos y de poca calidad (premiando por tanto a otros sitios Web que sí ofrecían contenido original, especializado, amplio y de calidad), parece que Pingüino trata de beneficiar nuevamente a aquellas páginas Web de calidad, que publican sus contenidos a personas y no a los buscadores.

Por tanto, es fácil establecer que Google Pingüino tiene en cuenta:

  • La colocación de textos y enlaces ocultos.
  • Redirecciones innecesarias.
  • Envío de consultas masivas/automatizadas a Google.
  • Páginas con keywords irrelevantes.
  • Diferentes dominios, subdominios y páginas con el mismo contenido.
  • Páginas puerta.
  • Trucos SPAM para un mejor posicionamiento.
  • Inclusión de enlaces con poco sentido dentro del contenido.