Parroquianos y paracaidistas, gestionando la calidad del tráfico de un blog

En prácticamente cualquier página web que se precie, incluso en las que no se precian, hay dos tipos de público muy diferentes entre ellos: los parroquianos y los paracaidistas. Creo que la primera vez que oí este concepto fue a JJ Melero en Atalaya en 2003, aunque él hablaba de turistas en vez de paracaidistas, que me parece un término más preciso. Es muy importante entender las diferencias entre ambos perfiles, porque su comportamiento en un sitio, e incluso las cosas que se pueden hacer para que aumenten, son muy distintas.

Parroquianos
Los parroquianos son los lectores fieles del blog (o de una página web, vale igual). Son lectores que conocen tu publicación y que les gusta. Y les gusta tanto que la visitan con frecuencia (en motorpasión hay lectores que reconocen leerla hasta 5 veces al día), que la recomiendan a sus conocidos, que la enlazan desde sus blogs o páginas. Son gente que visita el blog escribiendo directamente su URL, que la tienen guardada en sus marcadores, que se la han apuntado en un archivo de texto o en un papelito. También gente que está suscrita a tus feeds o a tu boletín de correo. Ojo, medir a estos últimos es mucho más difícil, pero conceptualmente entran en esta definición.

Paracaidistas
Los paracaidistas son tráfico de aluvión. Son visitantes que vienen a tu blog desde un buscador en el que buscaban sobre algo de lo que escribes en tu blog. O que vienen desde otro blog u otra página que enlaza al tuyo. En general no conocen tu blog, ni tu marca, ni tienen una opinión sobre tu contenido. Llegan al blog buscando algo y saldrán con la misma velocidad que han entrado si no ven muy rápidamente aquello que estaban buscando. En su gran mayoría hacen un número bajo de impresiones por visita, apenas algo más de una. Se quedan mucho menos tiempo en un blog que los lectores habituales. Pero hacen más clicks en todo, tanto enlaces como anuncios, en especial anuncios de texto.

¿Cómo se generan?
Los parroquianos se generan poco a poco. Es necesario que descubran la web y que lean sus contenidos hasta convencerse de su calidad y ponerlo en su lista de publicaciones de visita frecuente. Lo normal es que con el tiempo su número vaya aumentando. Si su número baja es que estamos haciendo algo mal que está alejando a algunos de nuestros lectores habituales. Hablamos, en cualquier caso, de número neto. Siempre habrá usuarios que, en un momento dado, dejan de leernos de forma habitual por causas que, en muchos casos nada tienen que ver con la publicación. Pero esos usuarios que perdemos deben de ser sustituidos por usuarios habituales nuevos, de forma que el saldo neto sea siempre positivo.

Los paracaidistas se generan vía posicionamiento fundamentalmente. Es necesario que las arañas de los buscadores descubran tu web, la indexen y, en función de sus algoritmos, la posicionen en sus páginas de resultados. Se tarda unos cuantos meses en conseguir que estos usuarios empiecen a subir. Y hay que cuidarlos para que sigan viniendo. Hay que entender cómo indexan los buscadores y hay que ayudarles a ver tu contenido. También ayuda que otras páginas enlacen a tu contenido. Y, desde luego, hay prácticas que se deben evitar.

Para aumentar los parroquianos ayudan el foco en una temática muy determinada, la calidad de los contenidos, la velocidad en cubrir las novedades del sector y la profundidad con que se aborda. Debes intentar ser la publicación de referencia en tu temática. Es importante cuidar tu credibilidad. Esta se construye muy poco a poco y se puede perder muy rápidamente. Para aumentar los paracaidistas ayuda tener mucha frecuencia de publicación. También anticiparse a las temáticas que van a ser populares.

La función de los paracaidistas
Hay gente que busca tráfico de buscadores para aumentar sus páginas vistas totales, bien como táctica para salir mejor en las herramientas que los miden (fundamentalmente el panel de Nielsen y las herramientas de medición de huella como Nielsen Market Intelligence/OJD o Google Analytics). Otros, lo hacen para poder tener más impresiones que vender a los anunciantes directos o a Google Adsense. Yo siempre he pensado que estos dos efectos son sólo eso, efectos colaterales. Pueden venir bien, pero no son lo más importante de los paracaidistas y, además, no son estables. El tráfico que viene de Google es tráfico prestado. Igual que Google te lo da, Google te lo puede quitar. Unas veces por malas prácticas tuyas. Otras veces porque otras webs van indexando mejor y la tuya, comparativamente, algo peor. Y finalmente otras veces ni siquiera sabrás por qué. Nosotros tuvimos un banneo de Blog de cine durante tres meses simplemente por un pico de tráfico tras el festival de Cannes. De un día para otro el tráfico desde buscadores cayó un 90%. Y a los tres meses recuperó ese mismo 90% y siguió como hasta entonces. Ya nos había pasado una vez antes y sabíamos qué era. Pero te puede causar un buen disgusto. Especialmente si contabas con esas impresiones para servir campañas ya comprometidas con anunciantes.

Pero es tráfico que tiene una utilidad fundamental: descubrimiento. Conseguir tráfico de buscadores es una manera muy potente de dar a conocer tu publicación y su contenido a nuevos lectores que no la conocen. Si tienes una web con marca potente, por ejemplo la versión online de una publicación en papel, los nuevos lectores te vendrán fundamentalmente de lectores del papel que se pasan a leerte online. Si no tienes ese lujo, tus nuevos lectores habituales vienen de dos vías: recomendaciones de tus lectores habituales, entre las que están los enlaces, y visitas de paracaidistas.

Así, el valor principal de los paracaidistas es que un porcentaje de ellos se convierten en lectores habituales. Esto es lo más relevante a largo plazo. El resto son efectos temporales.

El tráfico subyacente
Para evaluar cómo evolucionan ambos tipos de tráfico, nosotros utilizamos el concepto de tráfico subyacente. Aparte de seguir el tráfico total (en usuarios, visitas y páginas vistas), también seguimos este tráfico, que representa aproximadamente el tráfico de los lectores habituales. Así, si sube el tráfico total y también sube el tráfico subyacente, todo va bien. Pero si sube el tráfico total sin que suba el tráfico subyacente, o bajando este, activamos las alarmas.

¿Cómo medimos el tráfico subyacente? Es imposible medir todos los componentes, pero sí es posible aproximarlo bastante. Nosotros consideramos tráfico subyacente el tráfico de estas fuentes:

  1. Directo: el que Google Analytics reporta como tal. Es gente que ha escrito la URL en la caja de direcciones de su buscador o te han guardado en sus marcadores.
  2. Búsquedas de navegación: son búsquedas en Google y otros buscadores por el nombre de tu blog o incluso por typos relacionados con el nombre. Es gente que estaba buscando tu publicación, no un contenido específico que pueda aparecer en el mismo.
  3. Lectores de feeds. Lógicamente no somos capaces de medir las lecturas en los agregadores. Pero sí los accesos a la web que provienen de ellos. Y aunque formalmente sean referencias, nosotros lo consideramos como lectores habituales.

Y por otra parte no consideramos tráfico subyacente:

  1. Google: suele ser la principal fuente individual de tráfico.
  2. Búsquedas desde otros buscadores
  3. Búsquedas de imágenes. Google Analytics reporta estas visitas como referencias, como enlaces desde otros sitios, pero son realmente búsquedas.
  4. Referencias desde otros blogs del grupo: nosotros medimos esto separado para poder ver el impacto que tienen.
  5. Referencias desde otras fuentes.

Por ejemplo, durante el último año (de agosto 2007 a agosto 2008) el tráfico total de Xataka en páginas vistas creció un 41%. Sin embargo, su tráfico subyacente creció un 59%. Esto es, no sólo creció el tráfico subyacente, sino que lo hizo a un ritmo mayor que el tráfico total, lo que supone que estamos siendo muy eficientes en captar nuevos lectores fieles.

Los blogs se convierten en un gran negocio

Facturación blogs USA 2007

No lo digo yo, lo dice eMarketer en un reciente informe (de pago, casi 700 dólares) que acaban de publicar y del que proporcionan un resumen en su web. Lo fundamental desde mi punto de vista (todos los datos porcentuales referidos al total de usuarios de internet en Estados Unidos):

  • Un 12% de los usuarios mantiene actualizado un blog (sube al 16% en 2012)
  • Un 50% de los usuarios lee blogs (al menos un blog una vez al mes), esto es, 94 millones de individuos, subiendo hasta el 67% en 2012 (145 millones de individuos).
  • Declaran los blogs como ya claramente dentro del mainstream, del consumo habitual del usuario medio de internet
  • La facturación de publicidad en blogs en 2007 fue de 283 millones de dólares y esperan que sea de 746 millones en 2012.
  • Añaden que la orientación a nichos de los blogs es un factor fundamental en su atractivo publicitario y que los resultados de atención y de click de los lectores de blogs sugieren que son un público premium.

Obviamente, no puedo estar más de acuerdo. En España, algo parecido pero bajando los números a la realidad de nuestro mercado y atrasando las tasas de adopción uno o dos años.

Batiburrillo VI

Para paliar, en parte, la poca actividad que tiene este blog, voy a recuperar la idea de los posts variaditos con enlaces, que hice durante algunos meses en 2004 y que hoy parecen estar bastante en voga boga. A ver si soy capaz de darle cierta frecuencia. Para el que no pueda esperar, muchos de los enlaces de este post y otros parecidos salen en el lateral marcados bien en Google Reader, bien en del.icio.us. Van en orden cronológico inverso, faltaría más.

Audiencias de blogs y nuevos medios online

Leyendo Audiencias (el estupendo blog sobre medición internet y medios online de Adrián, muy recomendable), he visto un post suyo comparando la audiencia durante los primeros tres meses de 2008 de Público, Adn y Soitu. Para compararlos usa un gráfico con datos de Alexa. No es que yo sea muy fan de Alexa, pero puestos a jugar, he añadido al gráfico dos de nuestros blogs para ver cómo quedaba la cosa.

Blogs vs nuevos medios - Datos comparados en Alexa, mayo 2008

Adrián comenta en su blog que Soitu tiene números de blog de éxito, no de medio online. Si nos creemos lo que dice este gráfico, ninguno de los tres llega aún a blog de éxito.

Y ya que estamos, última edición del ranking europeo de blogs de Wikio: 21 blogs españoles, de los cuales 6 de Weblogs (Genbeta 3, Xataka 8, nuestro blog corporativo 19, Blog de cine 21, Vidaextra 36 y Applesfera 41) y también entran los tres blogs representados por Social Media (Microsiervos baja al 2, Enrique Dans 7 y Error500 en el 9).

Y también en este negociado, Bitacoras.com ha relanzado su top de blogs, que si recuerdo bien fue el primero de blogs en español, allá por 2004 (estupenda iniciativa). En esta nueva edición aparece Genbeta en primer puesto (nosotros tampoco somos dignos :), Xataka el 4, Motorpasión el 13, Blog de cine el 15 y Applesfera el 25 (sigue hasta el 1.000 pero mejor lo veis en la fuente)

(modo autopromo off)

Actualización: el gráfico con Vidaextra en vez de Genbeta es todavía mejor (parece que el permalink de Alexa no va, aquí está el gráfico en flickr).

¿Al borde de la mayoría absoluta?

Detalle voto + simpatia - CIS 2008

Esta mañana se han publicado los resultados de la encuesta electoral del CIS. Los titulares de toda la prensa son unánimes: “casi empate”, “distancia de 1,5 puntos”, todos al unísono repiten la misma consigna.

He mirado los datos y hay una cosa que me llama poderosísimamente la atención. Todos los titulares se refieren a la estimación de voto. Sin embargo, es bien sabido que los técnicos del CIS recogen los resultados de la encuesta de forma rigurosa; esto es, los resultados de intención de voto directo. O si se quiere, los de intención directa más simpatía (“no sé a quién voy a votar, pero me siento más cercano a X”). Sobre esos datos, la dirección del CIS y La Moncloa aplican correcciones en base a un modelo de estimación que asigna los indecisos. Dicho modelo me recuerda al factor K que usábamos en algunos business plans en mi época de consultor. Entre nosotros definíamos el factor K como aquel número por el que se multiplicaba el resultado obtenido para que saliera el resultado que se deseaba.

Los datos de estimación de voto dan un 40,2% al PSOE y un 38,7% al PP, una diferencia de 1,5 puntos. Si miramos sólo intención de voto directo más simpatía, tenemos un 37,1% para el PSOE y un 24,5% para el PP, una diferencia de 12,6 puntos. No digo que no haya que corregir, por ejemplo, por el factor de movilización de unos indecisos y otros, pero comerse casi 13 puntos de diferencia me parece mucho. Es más, con 13 puntos de diferencia seguramente lo que se obtiene es una mayoría absoluta.

¿Nadie se ha dado cuenta de esto? ¿Nadie lo ha hilado con el desliz de Zapatero en Cuatro?

Los datos | Encuesta electoral CIS

El proceso de verificación de información en los blogs

A menudo cuando hablo sobre blogs con periodistas de medios tradicionales surge la cuestión de la verificación de la información. El argumento viene a ser el siguiente:

Los medios tradicionales verifican la información, se aseguran de que sea cierta antes de publicarla. Los blogs publican cualquier cosa, expanden bulos sin ningún rigor y sin molestarse siquiera por hacer la más mínima comprobación.

Que conste que no cito a nadie en concreto, más bien resumo un argumento que, con unas palabras o con otras, he oído reiteradamente en los últimos tiempos. Bien, aparte del chistecillo aquel que dice que “la diferencia entre un periodista y un blogger es que el primero es una persona incapaz de hacer una búsqueda en google y enlazar, mientras que el segundo es una persona incapaz de levantar un teléfono y preguntar”, creo que, en algunos casos, no hemos entendido aún que se trata de cosas distintas. No es lo mismo publicar una información en un medio tradicional (prensa, radio, televisión) que hacerlo en un blog. Y mucho más si se trata de un blog personal y no un blog profesional o nanomedio.

Simplificándolo mucho, el proceso de verificación de la información en los medios tradicionales es el siguiente: un redactor prepara una información y dicha información es contrastada consultando a las fuentes directas accesibles y, en la medida de lo posible, buscando las distintas perspectivas sobre la noticia. Una vez que se ha hecho esto, hay un editor o un redactor jefe que supervisa la noticia que se va a publicar. Se trata de un proceso unilateral, en cerrado y a priori. En el participa sólo el medio, no se ve desde fuera y se hace antes de publicar.

En los blogs el proceso de verificación de la información también existe, contra lo que les pudiera parecer a algunos. Sin embargo, es radicalmente diferente al de los medios. Sucede a posteriori, en abierto y en colaboración. En un blog se publica la información y es la comunidad de lectores del blog, conjuntamente con sus autores, la que verifica la fiabilidad del mismo, detecta y denuncia errores. Y además resulta que los autores de los blogs participan en esa conversación, y contestan, y corrigen cosas en el post, y sustituyen lo que estaba mal, y lo dejan tachado (para dejar una traza del error), y añaden actualizaciones con información adicional, y enlazan a otras fuentes que hablan sobre el mismo tema. Cuando se publica algo en un blog, no se pretende que sea la última palabra en torno a dicha cuestión. Se pretende que sea el inicio de una conversación sobre ella. Conversación que puede suceder en los comentarios de la noticia o en posts cruzados entre distintos blogs.

Obviamente estamos hablando, en ambos casos, de procesos ideales. Ni todos los blogs siguen las reglas que acabo de explicar, ni mucho menos todos los medios tradicionales siguen las reglas descritas en el párrafo anterior. Hay multitud de bulos que han corrido por la blogosfera por falta de una mínima llamada para contrastar la información con una fuente directa. De la misma manera que en los medios tradicionales se han publicado infinidad de bulos por no hacer una búsqueda en google o no preguntar un poco más o no entender la materia sobre la que se estaba escribiendo.

Yo estoy convencido de que el proceso de verificación de fuentes en los blogs es más potente. Igual que estoy convencido de que el proceso de creación del software libre es más potente que el del software privativo. Y por las mismas razones (millones de ojos ven más que pocos ojos en teoría más cualificados). Pero lógicamente vivir en un entorno de informaciones en proceso de verificación es distinto a vivir en un entorno de productos informativos acabados. Y hay que leer de otra manera, mucho más crítica. Sin embargo, a mí me parece mucho más enriquecedor.