En 2003 Google realizó la primera actualización a su algoritmo con resultados categorizados como catastróficos para los resultados SERP. Esta sería apenas la primera de una serie de constantes actualizaciones al algoritmo central y los algoritmos periféricos de buscador con similares historiales de destrucción de resultados y status quo.
Si la experiencia y la historia nos ayudan a llegar a una conclusión es que nuevas actualizaciones generarán nuevos cambios en los resultados de búsqueda de Google, estar al tanto de la historia, procesos y cambios en el algoritmo de los motores de búsqueda es una necesidad imperiosa si se quiere triunfar en internet y sacarle ventaja a la competencia.
Google Florida
La actualización de Google Florida ocurrió el 16 de noviembre de 2003, justo antes de la temporada de compras navideñas y justo antes de “Pubcon Florida en Orlando.” Florida se percibió de inmediato como un cambio en la forma en que se calculan los enlaces en Google, su misión era combatir el cada vez más frecuente SPAM de internet, fue así como muchos sitios inocentes que no eran spam perdieron posiciones.
Estos sitios inocentes que perdieron posiciones fueron etiquetados como “falsos positivos”. Lamentablemente, esos falsos positivos dejaron virtualmente fuera del negocio a muchos pequeños minoristas y afiliados de la noche a la mañana.
El retroceso fue tan masivo que Google prometió tratar de no volver a lanzar una actualización significativa antes de las vacaciones y ventas navideñas. (Google mantuvo esa promesa no oficial hasta 2011, cuando lanzaron una serie de actualizaciones de Penguin en noviembre y diciembre).
La reorganización continuó hasta bien entrado 2004 Google buscó activamente ejemplos de falsos positivos. Muchos consultores enviaron URL de ejemplo de sitios inocentes que se habían visto afectados. A Google le tomó casi 2 años estabilizar las clasificaciones de los sitios web marcados como falsos positivos. Una de las principales quejas hechas sobre la actualización de Google Florida fue que Google no realizó suficientes pruebas e implementó el cambio de manera determinante esperando resultados ideales.
¿Qué debía de hacer Google Florida?
En 2004, 2004 y 2005 aún habían muchas teorías sobre lo que estaba haciendo Google. Algunos profesionales en SEO prominentes (especularon que Google estaba usando OCR para identificar el botón “comprar” en los sitios de comercio electrónico para eliminarlos de las consultas informativas. De esta manera cada vez que los Google Bots encontraran un botón “Comprar” categorizarían el sitio como un sitio de compras y no lo mostrarían en los resultados de informativos.
Otra teoría decía que Florida era un poco más sencillo y lo que realmente hacía era calificar de manera más estricta los enlaces entre los sitios web empezando a crear jerarquías de referencias y valores de dominios entre otros procesos de calificación de referencias. No fue sino hasta una sesión de Search Engine Strategies San Jose sobre Googlebot, Marissa Mayer reveló que Google depreciaba los enlaces de páginas irrelevantes. Esto era importante porque hasta ese momento un enlace de PageRank alto podía ayudar a clasificar un sitio, independientemente del tema.
Análisis estadísticos de comportamiento de links y usuarios en páginas web.
¿Recuerdas alguna vez por esas fechas haber descargado alguna canción o capitulo en sitios como Megaupload, RapidShare u otros sitios de Torrents y ver miles de anuncios y que la página web te pidiera realizar un ritual de clics de ver videos inútiles antes de iniciar tu descarga? Bueno ese era el SPAM contra el que se estaba y aún se está peleando.
En 2005, en Pubcon New Orleans, los ingenieros de Google revelaron que estaban utilizando análisis de enlaces estadísticos para eliminar los sitios de spam. Se anunció en una súper sesión de diez ingenieros de Google. Un ingeniero habló sobre el análisis estadístico y luego abrió el debate informal uno a uno. Si bien y hasta la fecha Google no ha dado una respuesta concreta sobre de que se trató “Florida” las pistas indican a que se empezaron a implementar poderosos análisis estadísticos con el fin de combatir la estrategia de Spam de saturar la red con enlaces baratos.
¿Cómo funciona el análisis estadístico de enlaces?
El análisis estadístico de enlaces es el proceso de trazar en un gráfico las características de una página web o sitio web. Puede contar estadísticas sobre cosas como la cantidad promedio de enlaces salientes por página web, los porcentajes de enlaces salientes que contienen texto de anclaje rico en palabras clave muchas veces inidentificables en los URL o enlaces del los sitios, factores que para 2003 y años inmediatamente siguientes eran determinantes en la categorización de los sitios web.
Google había estado investigando las propiedades estadísticas de los enlaces desde al menos 2001. El documento “Quién enlaza a quién: Minería de enlaces entre sitios web” (PDF) se detalla el trabajo sobre el modelado de propiedades estadísticas de páginas web y sitios web y es también en este documento donde se nota por primera vez cómo ciertas propiedades parecían indicar la presencia de spam.
Uno de los autores de este estudio es Krishna Bharat, quien luego fundaría y dirigiría Google News. Es coautora del famoso algoritmo Hilltop y creador del algoritmo LocalRank de Google. Para junio de 2004, Microsoft había publicado públicamente el famoso artículo de investigación titulado Spam, Maldito Spam y Estadisticas (PDF) el documento revela la visión futura del análisis estadístico para encontrar y combatir spam.