#7 ¿Y si dejamos de prestarle tanta atención al número de visitas?
La mitad del tráfico de internet no es humano (bots) y puede adquirirse fácilmente para inflar métricas. Grandes medios tomaron medidas para poner fin al touch-and-go y formalizar con sus audiencias.
De manera gradual, navegamos en una internet cada vez más fantasmal en la que los bots y la IA asumen más tareas y pueblan las redes sociales, escriben artículos en los principales sitios de noticias, recolectan datos e interactúan de manera “más humana”, sin levantar la menor sospecha de que, detrás de todos esos quehaceres, no hay más que puro código.
En este contexto vale preguntarse ¿qué sentido tiene seguir poniendo a las métricas en un pedestal? Si los bots con IA están avanzando y su uso se extiende cada vez más, ¿cuál es el motivo para darle tanta entidad a los clics, la permanencia, los visitantes únicos, el % de rebote, los comentarios, etc.? Todas ellas son acciones que pueden realizar estas máquinas.
No hay razón para que, en un ecosistema cada día más plagado de bots, sigamos analizando el éxito o la viabilidad de un proyecto online únicamente en base a estas métricas.
1. La mitad del tráfico en internet es de bots🤖
Ese es uno de los datos más relevantes del informe de Impreva 2024.
El 49,6% del tráfico de internet está conformado por bots y cerca de 1/3 del total son bots maliciosos, que son aquellos que generan fraudes, denial of service, spam, etc.
“Los bots automatizados pronto superarán la proporción del tráfico de internet proveniente de humanos, cambiando la forma en que las organizaciones abordan la construcción y protección de sus sitios web y aplicaciones” advierte Nanhi Singh, general manager de Imperva.
En la actualidad, los bots más “famosos” son los que hacen “scraping”. Esto no es más que la recolección de grandes volúmenes de datos (texto, imágenes, etc.) de la web. Recolectan, limpian, clasifican y, una vez pulidos, entrenan a distintos modelos de IA. Así se entrenó Chat GPT, por ejemplo. A partir de la info de innumerables sitios webs, artículos, noticias, libros, etc. fue conformando un inmenso corpus de contenido para ir entrenándose. También existen casos de bots de scraping con usos más fraudulentos, como por ejemplo, una compañía puede sustraer info de webs de su competencia para el análisis, monitoreo y toma de decisiones.
2. Práctica periodística deteriorada👎🏻
Sin embargo, los bots (y su fácil adquisición: basta googlear “comprar tráfico”) no son el único motivo que mina la confiabilidad de las métricas. También lo son algunas prácticas que se han extendido cada vez más y ya han sido adoptadas como parte del circuito de trabajo de sitios de noticias, canales de streaming, cuentas de empresas en redes sociales y demás, con el único objetivo de inflar artificialmente esos datos.
El clicbait es un ejemplo de eso. ChatGPT lo define como “una técnica para atraer la atención de los usuarios y lograr que hagan clic en enlaces a través de titulares sensacionalistas o engañosos. Estos titulares suelen exagerar o distorsionar la información para generar curiosidad o emoción, con el objetivo de incrementar el tráfico hacia una página web. Sin embargo, el contenido al que se accede a menudo no cumple con las expectativas creadas por el titular, lo que puede resultar en una experiencia decepcionante para el usuario". Pasa muy a menudo cuando buscás el horario de un partido de fútbol, por ejemplo. Los sitios de noticias suelen titular con las mismas palabras que uno lo busca: “¿A qué hora es el partido de la selección?”, para obtener un buen posicionamiento en google. Una vez que hacés clic e ingresás, el horario no está al inicio de la nota sino que está bien abajo, lo que obliga a uno a permanecer unos segundos extra en el sitio hasta encontrarlo. También se dan los casos de “La delicada situación de salud de una estrella televisiva de los 90s”, que combina sensacionalismo, promueve el clic por curiosidad y te brinda el nombre del protagonista al final del texto, aumentando al máximo la retención.
Otro método similar es el que emplean algunos sitios “serios” que contrabandean tráfico subiendo a sus webs, por ejemplo, recetas de cocina copypasteadas o escritas por IA (sin ningún tipo de curación) con el mismo sello y url que su home, engrosando así sus métricas con contenidos de baja calidad que nada tienen que ver con su función primigenia.
3. Tres grandes medios de Latinoamérica abandonan dictadura del volumen✨
Hace algún tiempo hablábamos de la necesidad de reinventar (de nuevo) el modelo de negocio del periodismo y la verdad que parte de esta urgencia tiene que ver con que analizamos al periodismo con las mismas categorías y parámetros con las que evaluamos el éxito (o no) de un desafío viral de Tik-Tok. Mencionábamos el éxito de eldiario.es que “se ubica 3ero entre los sitios de noticias más visitados de España” y que “en los últimos 18 meses los suscriptores pagos crecieron 40%”.
Hoy podemos añadirle los casos de El Comercio de Lima (Perú), El Universal (México) y El Tiempo (Colombia) , que han decidido ponerle fin al reinado del volumen (visitas) para enfocarse en análisis más integrales con eje en las suscripciones.
El Comercio🇵🇪 manifestó que dejaría de brindar sus datos a Comscore alegando que “podría existir un riesgo respecto a la fidelidad de los datos desde redes sociales, toda cuenta que estos podrían ser maniobrados a través de la pauta publicitaria” y enfatizó: “creemos que una medición orientada hacia métricas de volumen se alejan de nuestro core de negocio, orientado desde hace ya varios meses a entregar contenidos de alto valor periodístico y a la fidelización de nuestras audiencias”.
El Universal🇲🇽 fue directo al grano e informó que saldría de Comscore debido a que “de ahora en adelante existe el riesgo de que los resultados puedan ser manipulables, pues nada impide que un medio compre pauta desde redes y la haga pasar por audiencia extendida” y precisó que “la apuesta de El Gran Diario de México es la de informar, de contribuir con contenidos de alto valor periodístico y de contar con la fidelización de la audiencia, no la de comprar tráfico en las redes sociales”.
El Tiempo🇨🇴 hizo lo propio comunicando que “esta decisión se da en medio de la búsqueda constante de esta casa periodística por sistemas de medición enfocados en la calidad que le permitan conocer las necesidades informativas de las audiencias que buscan el periodismo de la más alta calidad en Colombia”.
4. Del touch-and-go a las relaciones formales👰🏻
Es alentador ver estos casos para quienes amamos al periodismo ya que dan cuenta de un cambio de paradigma.
Se abandona un modelo con foco en el touch-and-go (volumen/incremento de cantidad de visitas de pocos segundos) y se va hacia otro que busca formalizar la relación con sus audiencias
Se busca que las visitas no sean esporádicas, de unos pocos segundos, fruto del clicbait, sino que provengan de un interés real por contenidos de calidad.
Ojalá que el viraje de estrategia de estos medios pueda ser el gérmen de un nuevo modelo de entender al periodismo en esta época, que no estará exento de dificultades y tropiezos ni garantizará la adaptabilidad de todos los existentes pero que, esperemos, trace un camino posible para dejar atrás ese periodismo desdibujado y obsesionado con la cantidad en desmedro de la calidad.
5. Conversación continua
¡Hola! soy Martín Sosa, periodista y consultor en comunicación argentino. Tengo 36 años y 10 de experiencia en comunicación política, institucional y digital. Desde hace algún tiempo que vengo pensando en crear un espacio en el cual pueda compartir noticias y análisis en torno a la coyuntura de la comunicación, la tecnología, la cultura y la política y creo que llegó el momento.
Si te interesan estos temas, podés suscribirte para recibirlos en tu mail.
Las analíticas ya tienen en cuenta los bots, como Google Console
Sólo por salirse de comscore