Por Uri Martinich, Experto en Marketing Digital, Fundador Agencia ROI.
Quienes vivimos el desarrollo de la “Internet para las personas”, recordamos la era pre-Google como tiempos oscuros, porque los sitios web eran islas a las que solo se podía llegar por el dato de un amigo, la recomendación o un directorio de enlaces. Fue con el lanzamiento de Altavista, Yahoo!, Lycos, Infoseek y un par más, que por primera vez pudimos buscar en la web, preguntarle a una página “capital de Suiza” y recibir un listado de resultados. Hasta que el Spam destruyó todo.
La anarquía del spam
Donde existen consumidores, existe una oportunidad. Y eso vieron miles de spammers en el mundo. En aquel tiempo, los buscadores leían un sitio web (principalmente sus meta-etiquetas, como keywords, title y description y cuántas veces la palabra clave aparecía en el contenido), aplicaban su algoritmo y decidían qué rankear primero. Eso le daba a los spammers la oportunidad de probar fácilmente qué resultaba y qué no, haciendo diversos sitios sobre un mismo tema y viendo cuáles rankeaban mejor, para tomar esa fórmula y repetirla hasta llenar las páginas de resultados.
A fines de los 90’, los buscadores se habían transformado en herramientas prácticamente inusables. Invadidos por el spam, el problema parecía infranqueable, ya que al volumen al que crecía diariamente la web hacía imposible pensar siquiera en intervención humana de los resultados. Hasta que en 1998, Google, un pequeño actor que había surgido como un proyecto universitario, hizo su entrada en el mercado. Dos años después, se había transformado en el buscador más grande del mundo.
La génesis del rey
En 1995 Larry Page, un estudiante de doctorado de la Universidad de Stanford, comienza un proyecto de investigación de nombre “BackRub” (posteriormente, Google). Este consistía en analizar el número de enlaces que una determinada web recibía, ya que la hipótesis de Page era que aquellos vínculos constituían un “voto”, un respaldo; algo muy similar al sistema con el que se rankean las revistas científicas. Es decir que si un sitio web enlaza a otro, de una u otra forma está validándolo.
Rápidamente se le sumó Sergey Brin, compañero de doctorado y amigo cercano. En marzo de 1996, el primer robot de Google (o “web crawler”) comenzó a escanear la web indexando su contenido. Observando los datos que obtenían, Page y Brin desarrollaron el algoritmo “PageRank”, con el que medían la relevancia de una web en base al número e importancia de los links entrantes. Con esta fórmula, descubrieron que la calidad de los resultados era muy superior que la de todos los actores del mercado. Habían dado con la receta para ordenar la web y entregar a los usuarios la posibilidad de encontrar lo buscaban.
La conquista del mundo
A Google le tomó solo dos años dominar el mercado de los buscadores, pero surge la pregunta: ¿Cómo es posible que 15 años después siga siendo el líder indiscutido? Para entender eso, debemos comprender cómo su metodología fue evolucionando. A medida que los usuarios fueron descubriendo el nuevo buscador y sus visitas se multiplicaron por millones, los antiguos spammers vieron desaparecer su negocio.
No importaba cuánto manipularan sus sitios, los rankings prácticamente no cambiaban. Pero como dice el refrán, “hecha la ley, hecha la trampa”, algunos webmasters descubrieron una forma de manipular el buscador: las llamadas granjas de links. Esto consistía en crear decenas y hasta miles de sitios de manera automatizada. Estos sitios no tenían contenido relevante (muchas veces no tenían contenido), sino que solo enlaces hacia los sitios web que deseaban rankear y hacia otras granjas. Es decir, creaban una verdadera red de múltiples páginas que se intervinculaban, engañando con esto al algoritmo y manipulando artificialmente los resultados.
Google decidió actuar, modificando el algoritmo para descartar esta técnica. Pues los spammers rápidamente se recuperaron, iniciando técnicas más sofisticadas, como el intercambio de enlaces: “tú me enlazas a mí, yo te enlazo a ti”. Contactando a decenas de webmasters día por día, era posible obtener links desde páginas de mediana calidad (con contenido real), nuevamente alterando los resultados del buscador.
Google comprendía que su éxito se fundamentaba en entregar resultados de calidad. Si los spammers lograban manipularlos, los usuarios tarde o temprano migrarían a alguno de sus competidores. La estrategia de la empresa fue sólida: paralelamente a su equipo de ingenieros que trabajaba en mejorar el algoritmo incluyendo nuevos factores, creó un equipo dedicado exclusivamente a combatir el webspam de sus resultados. Les tomó un par de años transformar el intercambio de enlaces en una técnica obsoleta, pero resultó. Hasta hoy existen consultores SEO que recomiendan a sus clientes esta práctica, lo que equivale a que un médico sugiera realizar un sangrado para eliminar la enfermedad. Esto irá desapareciendo con los años.
La compañía continuó persiguiendo el spam, lanzando cada vez con más frecuencia actualizaciones que eliminaban parcial o totalmente la efectividad de técnicas manipulativas. Muchas empresas se dieron cuenta de que el acercamiento correcto era desarrollar una estrategia SEO que no violase las políticas del buscador. Resultaba más costoso y lento, pero en el largo plazo era la única estrategia duradera.
Además, Google abrió un canal de comunicación oficial con los webmasters, publicó guías y un blog con sus prácticas aceptadas (y cuáles no). Durante muchos años, mantuvo la política “nadie puede penalizar tu sitio web, solo tú”. Con esto se creaba un vacío: cuando el algoritmo detectaba que uno o más enlaces habían sido creados con la intención de manipular los resultados, lo único que ocurría era que dejaban de ser considerados como “links de valor”, por lo que no ayudaban a posicionarse mejor. De otra forma, sería posible “des-rankear” el sitio de un competidor simplemente generándole miles de enlaces evidentemente automáticos y manipulativos. Muchos spammers utilizaron esta característica para generar miles (e inclusive millones) de enlaces de nula o mínima calidad hacia sus sitios. Se abrió un mercado de software que recorría miles de blogs, foros y libros de visita por minuto, dejando comentarios automatizados para generar enlaces.
Pero, inevitablemente, Google cambió su política con dos actualizaciones: Penguin y Panda. A partir de ese momento, los links que un sitio web recibía sí podían afectar negativamente los rankings de este. Para evitar que se abriera un mercado de “penalice el sitio de su competencia”, Google abrió la posibilidad de “bloquear links entrantes”, desde la herramienta gratuita Webmaster Tools.
Cómo se mantiene siendo el rey
Google sigue dominando indiscutidamente el mercado de los buscadores por diversas razones, pero aquí nombraré las que considero las más importantes:
1. Infraestructura:Un buen buscador no es solo un buen algoritmo, sino también una gran infraestructura. Google tiene el mayor número de data centers dedicados a escanear y procesar cada página a la que puedan acceder (se estima que ya superaron el millón y medio de servidores). Este poder le da a Google la opción de contar con contenido fresco antes que el resto y de realizar análisis más complejos.
2. Búsqueda semántica:Hace 10 años, los buscadores eran incapaces de comprender lo que queríamos decir, sino que se limitaban a buscar coincidencias exactas al término que utilizábamos. Hoy, si usted ingresa en Google la siguiente búsqueda, sin comillas: “quiero cocinar un pato asado cómo lo hago”, obtendrá solo recetas y paso a paso. Esto es lo que se conoce como “búsqueda semántica”: entender lo que el usuario quiere decir.
3. Respuestas inmediatas:Algo que generó polémica entre muchos webmasters fue la iniciativa de comenzar a entregar él mismo las respuestas a ciertas búsquedas de los usuarios, no solo los enlaces a sitios web. Con esto, los sitios recibirían menos visitas, pero los usuarios nos ahorraríamos algunos clicks. Esto se conoce como Knowledge Graph.
La misión del buscador Google siempre ha sido una: organizar toda la información de la humanidad. Esta declaración de principios es la que ha guiado a su equipo, desde los fundadores hasta los miles de trabajadores que hoy ocupan sus oficinas. Y los resultados son claros: gracias a esta empresa, la web pasó de ser un lugar oscuro donde la información abundaba pero nadie la podía encontrar, a una herramienta tan poderosa que nos permite responder en un par de minutos preguntas que hace un par de décadas requerirían días dentro de una biblioteca.