Muerto Megaupload, ¿muerta la rabia? en El País

Megaupload elpais

Esta mañana Rosa Jiménez Cano me ha pedido una breve columna sobre el caso Megaupload que ha publicado El País en su sección de tecnología. Lo cierto es que se me hace raro escribir con una longitud predefinida, pero creo que el artículo resume bien mi posición sobre esto. Si se demuestra ante un juez que ha habido lucro ilegítimo aprovechando sin autorización obras de terceros me parece bien que respondan de ello. Ahora, me preocupa la repercusión sobre clientes y sus materiales lícitos y dudo de la eficacia de la medida para cambiar los hábitos de consumo de contenidos online de los usuarios.

También publica El País columnas interesantes de Enrique Dans, Paloma Llaneza. Por otra parte recomendaría leer el post de Carlos Sánchez Almeida en Jaque Perpetuo de El Mundo, que también aparece citado en el Wall Street Journal y la opinión de Javier de la Cueva, recogida en un artículo de El Economista. Otro punto de vista, el de Juan Varela y, por último, el post de Delia Rodríguez cargadito de enlaces para entender el tema.

Medición web: en el principio fueron los logs

La historia

En el principio de la medición de audiencia en internet fueron los hits usando los logs de los propios servidores de las páginas webs. Y fueron muchos. Pero los hombres vieron que no servían para entender la audiencia de un sitio. Y entonces llegaron las páginas vistas. Que ya eran mejores que los hits. Y la medición con herramientas de terceros, que eran menos manipulables que los logs. Pero enseguida se inventaron los refrescos automáticos de página, las galerías con múltiples fotos, a página cada una, y los articulos en paginados interminables de a párrafo cada uno. Y de nuevo hubo inflación. Y no se podía medir la audiencia real. Entonces llegaron los usuarios únicos. Con ellos se querían medir personas reales, de carne y hueso, con orejas y nariz. Pero las herramientas de medición censal que existían, basadas en tags y cookies, sólo medían navegadores únicos. Cada vez que un usuario abría otro navegador, borraba sus cookies o cambiaba de dispositivo, se convertía en un nuevo usuario. Y así el número de usuarios únicos del mercado subía y subía sin parar.

En paralelo se había empezado a usar paneles de audiencia, como en la tele. Sólo que internet es una realidad mucho más compleja y diversa que la tele. Y en vez de cientos de canales hay, literalmente, millones de sitios. Y los usuarios hacemos cosas muy raras. Como usar distintos navegadores, distintos sistemas operativos o distintos dispositivos. Y los paneles más o menos acertaban, a la baja, los usuarios únicos, pero patinaban fuertemente calculando las páginas vistas. Y claro, en tele también deben patinar, pero las teles no tienen medición censal propia y no lo saben. En internet todos sabemos cuántas páginas vistas hacemos. Y todos sabemos que los paneles puros patinan con esta métrica. Que, curiosamente, es la que se usa para contratar publicidad online (por mucho que los usuarios se usen para determinar qué sitios son más relevantes que otros).

Y entonces, apareció la medición híbrida. La medición híbrida (o unificada) consiste en usar lo mejor de cada una de las dos metodologías, la censal (tags y cookies) y la de panel (muestra representativa del mercado que instala software en su ordenador). Pero resulta que cada medidor la calculaba de una manera. Así que se hizo un concurso de mercado para decidir qué sistema de medición y que empresa proporcionaba una mejor medición. Y las reglas para dicho concurso las fijaron de común acuerdo compradores y vendedores de publicidad; anunciantes y agencias por un lado. Portales, medios tradicionales y medios nativos por otro. Sin olvidar a las teles y radios ni a las redes. Y del concurso salió vencedora comScore. Aunque con muchas mejoras por hacer, su sistema fue el que más convenció a la industria. Y en enero de 2012, pasó a ser el estándar de medición del mercado de internet español.

La explicación seria
Lo anterior, muy simplificado, es una breve historia de la evolución de la medición en internet hasta nuestros días. Espero que ayude algo a entender de qué va todo esto. Lo traigo a colación porque en breve vamos a cambiar en Weblogs SL la fuente de los datos de audiencia que venimos publicando ininterrumpidamente desde que empezamos Xataka en noviembre de 2004. Los datos que empezamos a publicar entonces eran del sistema interno que usábamos en la época (PHP-Stats). En febrero de 2006 empezamos a usar los datos de Market Intelligence de Nielsen, la herramienta de medición censal de Nielsen Online. Este es el sistema que hemos usado todos los meses hasta hoy. A partir de los datos de diciembre de 2012, que publicaremos en unos días, empezaremos a usar datos unificados (híbridos) de comScore. En realidad no son híbridos del todo, parte de los sitios todavía no tienen datos unificados y muestran sólo los del panel. Hemos decidido no esperar a los datos de enero (que serán más completos pero posiblemente aún no al 100%) porque queremos poder dar un mes datos con ambas metodologías y explicar las diferencias. Que las hay y son importantes. Voy a intentar adelantar algunas cosas aquí.

1. Metodología
Como ya adelantaba, el sistema que usábamos hasta ahora era el censal de Nielsen Online, Market Intelligence. Más precisamente, el dato que dábamos era el de audiencia mundial desduplicada (contando cada usuario que visita varias webs como un sólo usuario). A partir de diciembre daremos el dato unificado de MyMetrix de comScore. Es un dato elaborado en base al panel de audiencia de comScore (unos 20.000 panelistas) que, con algunas carencias que deben resolver, representa la población española usuaria de internet, y con direct, que es la herramienta de medición censal que usa comScore. En consecuencia pasamos de dar datos sobre navegadores únicos a dar datos sobre usuarios únicos.

2. Universo
Hasta ahora dábamos datos mundiales para el total y para cada sitio. A partir de ahora daremos datos mundiales y locales (sólo ip española).

3. ¿Qué sistemas hay y qué metricas dan?
En primer lugar tenemos los sistemas híbridos. El MyMetrix de comScore, que ahora es el estándar de mercado, y el Netview de Nielsen. En un segundo escalón estarían los páneles, las versiones sin hibridar de ambas herramientas. Luego tenemos los sistemas censales, Market Intelligence de Nielsen, Direct de comScore y el archiconocido y archiusado Google Analytics. En esta categoría entran también los datos de OJD, que aunque auditados por esta, se basaban hasta ahora en los datos de Market de Nielsen. Y también un cierto número de herramientas censales que son más de medición interna que de medición pública. Aquí tendríamos Site Census de Nielsen, Omniture, Xiti y unas cuantas más. Luego vienen otras herramientas con metodologías derivadas o menos fiables. La archiconocida Alexa (muy fácil de manipular), Quantcast (que usa datos de tags y también de operadores y que ofrece datos gratis para luego vender los datos de audiencia de tus sitios en adexchanges), Google Trends y Google Adplanner (estimados sobre datos internos de Google y en algunos casos sobre Google Analytics). El orden de fiabilidad, muy a grandes rasgos, es en el que los he presentado.

4. ¿Cambiarán los datos?
Sí, los datos de usuarios únicos mundiales de sistema híbrido son sustancialmente inferiores a los de navegadores únicos mundiales de medición censal. Esto no supone que nuestra audiencia (ni la de cualquier otro medio) se haya reducido. Simplemente antes estábamos contando navegadores no usuarios. Ojo porque esto es una práctica habitual. Cuando un medio publica su audiencia puede usar una u otra metodología. Hasta ahora, no había consenso de mercado sobre cuál era la que debía prevalecer. A partir de ahora sí lo hay. Aunque alguno tenga la tentación de usar otro sistema si el consensuado no le saca como a él le gustaría.

Por ejemplo, el dato que publicó hace unos días El País, es de comScore metodología híbrida, sólo IP española. Similar y comparable al que usaremos nosotros. Una pena que sólo lo hayan empezado a usar cuando se ponen por delante y no todos los meses vaya bien o mal. También es una pena que hagan comparativas teniendo en cuenta sólo medios tradicionales. Pero es el dato correcto y, efectivamente, El País es líder en audiencia española de medios informativos en diciembre de 2011.

El Mundo también se ha autoproclamado líder en audiencia en diciembre de 2011. En este caso usa varias fuentes: el dato censal de OJD, que a su vez usa datos de Market Intelligence de Nielsen con datos mundiales, no del mercado español, el panel de Nielsen puro y el panel de Nielsen híbrido. Sin entrar en otras consideraciones, extraña que escriban como si comscore no existiese o como si no hubiera ganado el concurso. Máxime cuando el grupo de El Mundo estuvo representado en ese proceso. También hacen una comparativa parcial, sólo con quien les interesa. En este caso ni 20minutos les vale como comparable.

Para terminar la foto, Vocento también se proclama líder en diciembre 2011. En este caso usa datos del panel híbrido de Nielsen, a nivel de compañía, no de medio e incluye a todos los grupos presentes. Una pena que los datos del panel híbrido de Nielsen sólo incluyen a los que son clientes del mismo. Esto es, faltan Google, Yahoo, Microsoft, Wikipedia… Si usando el unificado de comScore saliese el mismo resultado (Vocento todavía no ha unificado en comScore), este dato también sería correcto. Una cosa es ser líder como medio y otra ser líder como grupo.

¿Qué dato vale? Desde mi punto de vista, y entiendo que desde el de la mayor parte de la industria, el dato unificado (híbrido) de comScore para mercado español. El sistema entra en vigor en enero. Siendo benévolo, todavía en diciembre se puede discutir. No siéndolo, son excusas de mal perdedor.

Mi dieta informativa

Como complemento al post anterior, creo que puede ser ilustrativo compartir cómo consumo información a diario. Posiblemente para muchos de los que leáis esto os resultará muy familiar y os veréis identificados, en parte o en todo. Pero creo que también puede haber muchos a los que le choquen ciertos aspectos. O que les sirva de contexto o ilustración. En absoluto creo que sea representativa de cómo obtiene información la media de la población actual. Pero sí puede serlo de por dónde van las tendencias.

A primera hora, antes de desayunar, paso una media hora revisando la información importante del día usando un ipad. Lo primero es una mirada rápida a la pantalla principal del correo para ver si hay alguna cosa urgente que requiera atención inmediata. No suelo abrir o contestar correos en esa pasada salvo que haya algo especialmente relevante. A continuación viene la prensa generalista y económica. Miro la portada de El País, Cinco Días, El Confidencial y Vox Populi. De esta pasada suelo saltar a 5 o 6 noticias en total. A veces más, a veces menos. Muchas veces con el texto de las portadas basta para estar informado a alto nivel de qué está pasando. Luego paso a la especializada y miro 233 grados. Le sigue la viñeta diaria de Manel Fondevila en Público. De ahí salto a Techmeme, el agregador por excelencia de medios tecnológicos en inglés. Esta lectura suele hacerme saltar a 5 o 6 artículos más. Y es una fuente importante de retweets cuando veo cosas interesantes que, habitualmente, todavía no se han comentado en mi timeline de twitter. De ahí salto a Menéame, que me permite seguir noticias de temáticas muy variadas, muchas de las cuales no salen en las portadas de los medios tradicionales. O salen en medios que yo no he repasado en mi lectura inicial. Si tengo algo más de tiempo miro Hacker News (noticias tecnológicas en inglés) y Mediagazer (como Techmeme, pero de medios).

Finalmente miro Twitter. Creo que Twitter es una herramienta magnífica para usarla como filtro social. El truco consiste en darte cuenta de que es un medio asimétrico, determinar a cuantas personas puedes seguir en función del tiempo que le quieras o puedas dedicar y emplear mucho tiempo en seleccionarlas bien en función del valor de sus comentarios y, sobretodo, de sus enlaces. Yo sigo a unos 150. Constantemente añado nuevas personas a mi lista de seguidos según voy descubriendo voces originales y que aportan en los temas que me interesan, y una vez cada mes o así, borro unos cuantos para volver a los 150 de referencia. Suelo borrar en función del nivel de señal/ruido, del nivel de repetición con el resto de mis fuentes en twitter y también a aquellos que tienen perfiles mudos. Con esto termino mi repaso matutino.

Durante el día suelo entrar en twitter unas cuantas veces, tanto en ratos muertos (taxis, esperas) como entre tareas. Es raro que entre en algún medio si no es siguiendo un enlace de twitter o alertado por alguna noticia de última hora. Si encuentro enlaces interesantes en Twitter que no puedo leer en ese momento, los marco como favoritos e intento volver a leerlos más tarde. Antes usaba Instapaper, pero marcaba cosas allí que luego no recuperaba para leer más tarde. Por la noche, aparte de twitter, si tengo algo de tiempo, suelo abrir Zite para buscar noticias especializadas que se me puedan haber pasado en los repasos anteriores.

Quizás a alguno le sorprenda que no mencione ningún lector de feeds. Confieso que hace ya algunos años que no los uso. Sigo leyendo muchos blogs, pero no llego a ellos por los feeds. Llego a ellos fundamentalmente por twitter, menéame y por enlaces desde otras publicaciones. Leo con mucha frecuencia Techcrunch o el blog de Enrique Dans, pero no tengo en mi rutina diaria ver sus feeds ni sus portadas.

Esta es mi rutina. Y creo que me mantiene mucho mejor informado de lo que estaba años atrás. ¿Cuál es la vuestra? ¿Qué me falta o qué me sobra?

¿Quién se ha llevado mi audiencia (y mi modelo de negocio)?

Que el modelo clásico de los medios tradicionales está en crisis es algo que, a estas alturas de campeonato nadie duda. En mi época de universitario recuerdo que volvía a casa de la facultad y, antes de comer, empleaba una hora en leerme de cabo a rabo el periódico. Sólo perdonaba las necrológicas. Hoy empleo unos 30 minutos a primera hora de la mañana y habré ojeado titulares de 5 o 6 publicaciones y leído entre 10 y 20 artículos con mayor profundidad. Y todo esto con mejor selección de temas, más profundidad y mucha más diversidad. Creo que no soy el único.

La pérdida del oligopolio
Lo primero que ha sucedido ha sido la pérdida del oligopolio sobre la difusión de información. En el pasado eran pocos los que podían permitirse las inversiones necesarias para poner en funcionamiento un medio de comunicación. No hay que ver las pérdidas que han acumulado los dueños del diario Público en su empeño de lanzar un medio a la antigua usanza. Hoy cualquiera puede abrir un blog y contar lo que tenga que contar. Obviamente muchas publicaciones no tendrán calidad o no serán relevantes (pura ley de Sturgeon). Sin embargo, de entre todas esas publicaciones surgen algunas especializadas y de alta calidad, que rivalizan con las publicaciones tradicionales y las superan en adaptación al medio y en capacidad de conexión con sus comunidades de usuarios.

La ruptura del bundle
Parte del secreto de los medios era el empaquetaje conjunto de distintos tipos de contenidos que se consumían conjuntamente pero que podían tener niveles de calidad dispares y, sobretodo, capacidades de generar ingresos y rentabilidades también muy diferentes. En un entorno de abundancia de contenidos y de facilidad de acceso a los mismos, cada lector elige qué temas le interesan más, lee mucho sobre ellos pero de las mejores publicaciones que existen. No se queda a leerse la sección de deportes de una cabecera si sabe que hay otras mejores. Esta selección de contenidos entre multitud de soportes quiebra la capacidad de subsidio cruzado que tenían los grandes medios. El clásico ejemplo de cómo los anunciantes de motor acababan pagando los costes del corresponsal en Beirut. Si las publicaciones especializadas en motor se llevan esos anunciantes, ¿quién queda que pague al corresponsal? Porque las agencias de viajes a Oriente Medio no van a ser.

La especialización y los amateurs
El periodista tradicional era generalista por necesidad. Podía escribir sobre cualquier cosa. Esto tenía sentido en el modelo de oligopolio, escaso número de medios y papel de estos como mediadores de la realidad. En el contexto actual infinidad de expertos sobre las más variadas temáticas cuentan e interpretan la actualidad con mayor conocimiento y mayor pasión que el clásico periodista generalista, que queda en franca desventaja.

El papel de los antes conocidos como audiencia
Los antiguos lectores se agrupan ahora en comunidades de intereses comunes en torno a las publicaciones que cubren sus intereses, comparten su pasión y les permiten participar en su discusión. Dado un cierto nivel de audiencia, siempre hay alguien leyendo que sabe más que tú. Y en las comunidades de intereses especializadas hay bastantes. Los nuevos medios online les permiten participar en la creación del producto final, que es mezcla de lo que escriben los autores y de lo que añade la comunidad de lectores.

La pérdida de la independencia
El contacto continuo con los poderes político y económico, así como su dependencia de ambos ha hecho que poco a poco se haya erosionado ese papel de cuarto poder controlador de los tres anteriores que ostentaba la prensa. Esto, unido a la persecución de la objetividad entendida como la transcripción neutra de la realidad, o más bien de lo que ciertos actores quieren contar de ella, sin entrar a juzgar si lo que dicen es verdadero o no, como denuncia una vez más Paul Krugman hoy en el NYT.

La quiebra del modelo económico
Todo esto provoca una enorme crisis de modelo de producto primero y de modelo económico después. Acentuada por la emergencia de medios sociales en internet y apuntillada por la crisis económica. Los niveles de lectura de medios en papel caen constantemente. En ciertas franjas de edad es complicado encontrar lectores habituales de periódicos. La migración de los lectores a internet está siendo acompañada, a un ritmo más lento, pero igual de irreversible, por el abandono de los anunciantes. Si no es 2011 será 2012 el año que vea cómo la inversión publicitaria en internet supera a la de la prensa.

Los medios tradicionales que han apostado tarde, desordenadamente y en muchos casos con desgana por el medio online, se encuentran con que los ingresos allí no son tan altos como en el papel, y encima han crecido los enanos. Multitud de pequeños medios nativos, mucho más conocedores del entorno, mucho más flexibles, rápidos y con estructuras de costes mucho más ligeras. Y todos esos pequeños medios también compiten por los ingresos publicitarios. Hay menos y somos más para repartir.

Cuando la monetización mata la distribución
Algunos, azuzando el manido “el todo gratis no puede ser”, intentan montar sistemas de pago para que los lectores paguen por el producto editorial que tanto cuesta hacer. Sólo que el entorno ha cambiado. Estamos en un nuevo entorno de abundancia dónde lo escaso no es el producto editorial sino la atención de la audiencia. Por mucho que yo crea que mi producto es “calidad 100”, ahí fuera hay unos cuantos que tienen el mismo producto en “calidad 80”. Que para mí será un mundo, pero para buena parte de la audiencia es equivalente. Si me empeño en poner barreras, las alternativas que tiene el lector al alcance del ratón son casi infinitas. Y eso sin entrar en si efectivamente el producto por el que pretendo cobrar merece realmente la pena o si estoy intentando que los lectores paguen por mis ineficiencias o por lujos que se han vuelto insostenibles.

Ya no leo como leía
Algunos han visto las tabletas como su tabla de salvación. Piensan que en un entorno más “controlado”, los lectores se darán cuenta de su error y pagarán religiosamente. En lo que no han caído es en que los mecanismos de búsqueda, selección y consumo de información han cambiado. La marca y la portada como caminos de entrada a los contenidos de un solo medio leído por una audiencia diaria y casi mono consumo empiezan a ser superados por otros tipos de procesos: la lectura en diagonal de múltiples portadas; el uso de agregadores de información; de filtros sociales; las recomendaciones; las entradas desde buscadores o desde enlaces en otras publicaciones sin pasar por portada. El lector medio de internet es muchísimo más promiscuo que el de papel. Lee más publicaciones y es más selectivo y más crítico. Se informa desde más fuentes. Selecciona mejor qué lee. Es más dueño de su dieta informativa y menos dependiente de lo que le propone el medio. En un entorno así es difícil pensar en usuarios instalándose aplicaciones de todos los medios que siguen. Y mucho menos pagando por todas ellas. No digo que no se dé, pero no sustituirá a la lectura trasversal en navegadores o aplicaciones multimedio (tipo Flipboard o Zite).

¿Desaparecerán los medios?
En absoluto lo creo. Sí creo que los medios impresos perderán centralidad y buena parte de su influencia (tras perder la audiencia primero y los ingresos publicitarios después). Seguirán existiendo pero con un papel reducido (valga la redundancia). Sobrevivirán aquellos medios que mejor se adapten al entorno online. Que entiendan quién es su público y mejor sepan dárselo. Que construyan el producto con él. Y que sepan introducir a las marcas en ese juego de forma creativa, respetuosa, transparente y productiva para todos. O que sepan inventar otras fuentes de ingresos, que también vale.

Obviamente no tengo la fórmula definitiva. Pero es en lo que intento trabajar todos los días.