Category Archives: clickbait

Auto Added by WPeMatico

Rápido, desconéctalo antes de que sea demasiado tarde!!

Terminator Mi columna en El Español de esta semana se titula “Alimentando la paranoia” (pdf), y habla de los tratamientos informativos irresponsables y de ese supuesto robot que provocó que los ingenieros de Facebook, presas del pánico, lo desconectasen a toda velocidad porque, perverso él, había desarrollado todo un lenguaje propio que los humanos no podían entender y estaba, sin ninguna duda, preparando la llegada de Terminator para aniquilarnos a todos…

Lo único que merece la pena de esta historia es el evidente mensaje de que cada vez que escuchéis noticias sobre inteligencia artificial con tono tremendista, distópico o fatalista, debéis inmediatamente poner en marcha todas las alarmas correspondientes. Tras las primeras noticias al respecto, que lo tienen todo para ser clasificadas como antologías del disparate, en medios como Tech Times o BGR, resulta impagable leer la reacción de Dhruv Batra, de Facebook AI Research, en su Facebook cuando llegó de una conferencia y se encontró semejante pastel. Menos mal que tenemos Snopes

El caso es un ejemplo clarísimo de paranoia, clickbait e irresponsabilidad informativa. No, los bots de Facebook no estaban fuera de control, ni se habían vuelto demasiado inteligentes, ni nadie acudió corriendo para darle a ningún botón rojo ni tirar de ningún cable antes de que llegase el apocalisis de la humanidad. Nada de eso es cierto. Por triste que resulte a efectos informativos, nadie entró en pánico, ni se escuchó ningún grito desde el interior de la máquina cuando fue desenchufada… porque ni siquiera hubo nada que desenchufar. Traduciendo al propio Dhruv,

“En pocas palabras, los agentes, en entornos diseñados para resolver una tarea, suelen encontrar formas no intuitivas de maximizar la recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento NO es lo mismo que ‘desconectar’ o ‘cerrar AI’. Si ese fuera el caso, cada investigador de IA ha estado ‘cerrando AI’ cada vez que terminan un trabajo en una máquina.”

Se analizó el experimento, y se cambiaron sus parámetros, porque el que la negociación utilizase otros medios de comunicación diferentes al lenguaje humano no aportaba nada. Tampoco es cierto que las máquinas inventasen un lenguaje incomprensible para los humanos: simplemente, utilizaban repeticiones para indicar el número de unidades en una negociación. Big deal.

El tremendismo y el sensacionalismo son siempre una tentación para los medios. Cuando sazonamos esas tentaciones con desconocimiento, se convierten en una combinación peligrosísima. Procura estar atento, o terminarás mirando con ojos temerosos a tu Thermomix y pensando que planea asesinarte…

 

Powered by WPeMatico

Poniendo la basura donde corresponde

IMAGE: Lorelyn Medina - 123RFMi columna de esta semana en El Español se titula “Páginas basura“, y trata de conceptualizar uno de los problemas actuales del periodismo, la abundancia de páginas basadas en el clickbait, el sensacionalismo, el amarillismo y la desinformación, al hilo del reciente anuncio de Facebook de comenzar a “enterrar” en su algoritmo de recomendación de contenidos todas aquellas noticias procedentes de páginas calificadas como de baja calidad.

Las páginas basura son uno de los contenidos que más ha crecido en la web, alimentadas en gran medida por un efecto secundario de algoritmos como el de Google: lo que al principio era un algoritmo interesante basado en la contabilización de los enlaces externos y basado en la traslación a la web del conocido citation index del mundo académico, utilizado desde hace varios siglos, se convirtió, con la popularización de las redes sociales, en una métrica que privilegiaba en exceso lo social sobre la calidad. Peor aún: basándose en métricas como los Likes, los Shares, los retweets, etc., que los usuarios marcaban en muchos casos con un componente muy escaso de introspección o reflexión, lo que debía ser una métrica de relevancia se convirtió, en realidad, en algo que privilegiaba aquella información que más sorprendía, más llamaba la atención o más intrigaba.

El cómo una métrica de relevancia se estropea al pasar a un mecanismo de captación de indicadores supuestamente más democrático es un tema que, como tal, me parece fascinante: en la web de 1990, cuando Google comenzó a escalar en popularidad, las métricas que recogía eran enlaces a páginas con palabras clave (el anchor text) cualificados a su vez en función del número de enlaces entrantes que poseía la página origen, unido a algunos factores más de corrección. Para Larry Page, pasar a la web un algoritmo con el que estaba perfectamente familiarizado, el citation index que le indicaba como estudiante doctoral si un paper académico era o no relevante en función de las veces que aparecía en las referencias de otros papers, fue en realidad una idea genial. El sistema funcionaba: no solo lograba una métrica de relevancia convincente, sino que además, alejaba el control de las manos de los autores de las páginas, lo que lo hacía menos manipulable que los anteriores. Al producirse la popularización de las redes sociales, Google detectó que mecanismos como el Like de Facebook o los trending topics de Twitter podían convertirse en métricas de relevancia más rápidas que la suya, y comenzó a basar su algoritmo cada vez más en este tipo de parámetros. El resultado de privilegiar esas métricas fue una hiperinflación de la web en torno a lo social: las páginas se llenaron de “pegatinas” que pedían el Like, el Share, el retweet o la compartición de todo tipo, y la aparición cada vez más persistente de páginas orientadas a generar esas métricas. A todos los efectos, una concepción errónea de relevancia.

Con el tiempo, Google parece haber ido corrigiendo ese mecanismo: los parámetros sociales llevan tiempo descendiendo en su ponderación, y la compañía parece evolucionar hacia algo como el KBT, del que hemos hablado en otras ocasiones, para determinar una métrica de calidad de las páginas y, consecuentemente, de su relevancia. La consigna es clara: no se puede privilegiar en términos de relevancia a páginas que busquen el clic a toda costa basándose en técnicas que nadie considera bueno privilegiar.

El gran problema de las páginas basura, no obstante, es su heterogeneidad y la laxitud en su definición. Son, en muchos sentidos, como la famosa resolución de aquel juez norteamericano que trataba de explicar si un contenido era o no obsceno con la frase I know it when I see it, “lo sé cuando lo veo”. La medida anunciada por Facebook es, claramente, una manera de intentar determinar precisamente eso: si una página es basura o no, en función de una definición establecida como “páginas que contengan poco contenido sustantivo, cubiertas de anuncios molestos, excesivamente impactantes o maliciosos”. Y si efectivamente lo es, tratar de evitar la posibilidad de que alcance más visibilidad gracias a sus algoritmos.

Las páginas basura son el equivalente en la web del periodismo amarillo y de los tabloides: sin duda, un contenido que tiene sus adeptos, y que en algunos países genera un negocio importante. En su paso a internet, con la disminución de la fricción y con la facilidad para generar métricas de relevancia erróneas, el fenómeno se disparó hasta límites insostenibles. Medidas como las tomadas por Facebook o Google son fundamentales para poner coto a su desarrollo, para mejorar la calidad de la web. El resto de la responsabilidad corresponde al usuario, que si bien debe seguir manteniendo la libertad de poder compartir lo que le venga en gana, debe reflexionar sobre la idoneidad de asociar su imagen con la de páginas de esas características, y desarrollar unas mínimas opciones y criterio sobre la calidad de la información que maneja y comparte.

En cualquier caso, todo indica que las cosas estarán más difíciles para los medios que en su momento, y con una orientación claramente cortoplacista, optaron por ese tipo de tácticas para incrementar su visibilidad. Medidas que tienden a hacer algo muy necesario y positivo: poner las cosas en su sitio y sacar la basura a donde corresponde.

 

Powered by WPeMatico

La peligrosa química de la web

IMAGE: Alexander Parenkin - 123RF

Mi columna de esta semana en El Español se titula “Mezclas peligrosas“, y hace referencia a la compleja química de la web, en la que una serie de componentes que estaban destinados a ser individualmente beneficiosos terminan generando una reacción explosiva.

¿Cuáles son los componentes que han convertido a la web en un peligroso lugar que favorece la circulación de noticias falsas, bulos virales y desinformación? En primer lugar, claramente, la caída de las barreras de entrada a la publicación. Un fenómeno que conozco como pocos, que posibilita que pueda estar aquí cada día compartiendo un texto con vosotros, cuando antes tenía que enviarlo a un medio de comunicación, confiar en que pasase un cierto filtro más o menos riguroso, esperar la confirmación de que “hubiese papel” (siempre me hizo gracia eso de “esta semana no salimos porque no hay papel”, referido al balance entre contenido y publicidad… cuando eso pasaba, me daban ganas de enviar a la redacción un poco de papel… higiénico 🙂 y finalmente, verlo salir impreso unos días después. Frente a aquello, la actual situación de “ser mi propio editor” y darle a “Publicar” cuando me da la real gana me parece indudablemente mejor. Que las barreras de entrada a la edición y publicación caigan parece en principio una buena noticia, da voz a más personas, y democratiza la sociedad… hasta que llega un espabilado y decide que, como publicar es fácil, está en su supuesto derecho de publicar cualquier cosa.

El segundo componente es el sistema de incentivos que genera la publicidad. La publicidad en internet parece, sin duda, una buena idea: el medio permite segmentaciones más precisas, permite teóricamente dar a cada uno los mensajes que más le interesan o que más probabilidades tiene de estar buscando, ofrece un feedback más rápido y permite que muchos encuentren una forma de financiar sus publicaciones. Y todos felices… si fuese simplemente así. Sin embargo, la copia de modelos de otros canales lleva al abuso, al exceso de formatos intrusivos, y sobre todo, a primar cantidad frente a calidad, lo que lleva a poner la métrica de las páginas vistas por encima de todo, incluido el sentido común. Hay medios – no pocos – que recargan automáticamente sus páginas cada pocos minutos para añadir una página vista, como los hay que harían cualquier cosa por un clic, hasta prostituir completamente sus titulares en esa aberración denominada clickbait. Cuantas más páginas vistas tienes, mejor eres y más dinero ganas.

En tercer lugar, unas redes sociales que nos permiten conectarnos con nuestros amigos y con las personas con las que compartimos ideas y aficiones. Aparentemente, un gran invento. Hasta que comprobamos que aparecen personas para las que esas redes sociales se convierten en el prisma por el que miran el mundo, que las interpretan como ese sitio en el que son tanto mejores cuantos más “me gusta” reciben y más followers tienen, en una especie de persecución de la “micro-fama” que lleva a cometer excesos, a compartir cosas que, muy posiblemente, no deberían ser compartidas.

Finalmente, el desarrollo de algoritmos de recomendación que escogen por nosotros lo que queremos ver, utilizando componentes como lo que hemos visto anteriormente, lo que han visto nuestros amigos, o lo que nos ha generado una reacción. Aparentemente, algo positivo que trabaja por nosotros y nos permite escoger lo que queremos leer, en medio de un océano inabarcable de información. Pero de nuevo, si combinamos esto con el hecho de que tendemos a tener amigos que piensan relativamente parecido a nosotros, el resultado es la famosa filter bubble de Eli Pariser, una auténtica “cámara de los espejos” en la que nuestro pensamiento se ve amplificado, corroborado y multiplicado infinitas veces por el de otros, y nos lleva a sentirnos validados, a creer que todo el mundo piensa como nosotros, a pensar que el resto no lo dice por aquello de “la corrección política”, y a que un racista, machista, ultra e impresentable tenga ganas de echarse a la calle a vapulear a la primera inmigrante con la que se cruce. O a echarse a la urna y votar por el primer candidato que cree que representa unas ideas que ni siquiera deberían estar permitidas en sociedad, porque van en contra no solo de la Constitución, sino del sentido común.

Es la “tabloidización” de la web, o según algunos, la web como reflejo de la sociedad. Y por supuesto, la solución no está en considerar culpable a la web ni en pretender absurdamente “abolirla”, sino en regular la mezcla de esos componentes, facilitar que se usen, pero evitar que se abusen. Algo para nada sencillo, un camino indudablemente tortuoso que muchos podrán pretender utilizar para convertirse en censores, donde pagarán justos por pecadores, en donde se confundirán factorías coordinadas de  fake news con sátiras o parodias perfectamente aceptables, donde habrá que tener muy en cuenta matices de todo tipo. Pero que sea complejo no quiere decir que no haya que hacerlo o que se pueda nadie escaquear de su responsabilidad. Si construyes un canal que convierte aparentemente en verdad todo aquello que tiene muchos Likes, es obvio que vas, más tarde o más temprano, a necesitar algún tipo de instrumento de control. Crearlo no será fácil, pero si no lo haces, el resultado, muy posiblemente, no te gustará, y tu contribución a la sociedad no habrá sido precisamente positiva. 

 

Powered by WPeMatico

Compartió clickbait, y ni te imaginas lo que sucedió después…

IMAGE: Samuraitop - 123RF

Facebook toma finalmente medidas serias contra el clickbait, la basura de titulares sensacionalistas destinados a intrigar a toda costa y a obtener clics de los usuarios mediante descripciones generalmente engañosas. En su momento califiqué el clickbait como “amarillismo a evitar” en cualquier medio que aspirase a construir una relación sostenible con sus lectores, y sigo convencido de que es una estrategia cortoplacista, absurda y que está destinada a desaparecer.

En el caso de Facebook, a partir de ahora, los usuarios o páginas que compartan noticias calificadas como clickbait en función de un algoritmo que lo diferencia mediante un análisis de las frases y esquemas más habituales, irán disminuyendo su visibilidad global y en consecuencia su tráfico, de manera que una página que comparta constantemente titulares de ese tipo desaparecerá rápidamente de nuestros timelines, mientras que un usuario que solo comparta alguno ocasionalmente recibirá un castigo menor. Según Facebook, si una página cambia su estrategia y deja de comportarse como un spammer, su visibilidad volverá a aumentar gradualmente.

El clickbait es uno de los temas que más usuarios reportan negativamente de manera sostenida en Facebook. En 2014, la compañía hizo un cambio en su algoritmo con la misma orientación, con el fin de descubrir lo que era clickbait y lo que no lo era basándose en el ratio de rebote, el porcentaje de usuarios que, tras hacer clic en el enlace, abandonaban el contenido rápidamente porque consideraban que no alcanzaba a satisfacer las expectativas generadas por el titular. El resultado no fue suficientemente contundente porque aunque podía diagnosticar cuando un titular era efectivamente clickbait, no lo hacía de manera especialmente rápida, y faltaban medidas de castigo que tuviesen efecto sobre los spammers que compartían ese contenido aún sabiendo que era claramente clickbait. Ahora, el nuevo algoritmo utiliza técnicas de machine learning para tener en cuenta, por ejemplo, cuestiones como la omisión de información relevante en el titular, las exageraciones flagrantes o el historial de una publicación determinada, unido a una guía de estilo para los medios que aconseja sobre cómo evitar el clickbait en los titulares. Aún así, queda mucho por hacer: los algoritmos no son perfectos, y una eliminación real del cáncer del clickbait va a depender también de medidas de educación de los usuarios, de ayudarles a entender los elementos de calidad de una publicación y diferenciarlos de simples recopilaciones sensacionalistas sin valor añadido alguno. El clickbait desaparecerá cuando muchos usuarios entiendan el mal efecto que produce y la imagen que genera de quienes lo comparten.

Los algoritmos de recomendación de Facebook son una de las cuestiones más delicadas con las que tiene que lidiar la red social. Recientemente, tomaron la decisión de reducir la prioridad de los medios de comunicación en el feed ante las protestas de usuarios que afirmaban que querían ver primero las actualizaciones de sus familias y amigos antes que las noticias de los medios. Sin embargo, hay también segmentos de usuarios que afirman entrar en Facebook para informarse, y que otorgan a la red social un componente más informativo y menos centrado en sus contactos, lo que llevaría, de hecho, a no comulgar con ese cambio. Sin duda, se trata de temas complejos, en los que resulta difícil encontrar un equilibrio que sirva a todos.

Facebook no es la única compañía que está tomando medidas contra el clickbait. Según mucho expertos en SEO, Google está también tratando de priorizar cada vez más las páginas en función de la veracidad de su contenido y menos como derivado directo del número de enlaces entrantes, lo que conllevaría un castigo implícito de aquellas páginas más centradas en factoides, exageraciones o copia de información para beneficiar a las que realmente publicasen información relevante, original y verídica. Un tema complejo, escurridizo y en el que pueden entreverse complicaciones, pero que apunta igualmente a una reducción de la visibilidad del sensacionalismo, el amarillismo y el intento de captura de clics a cualquier precio.

No, los amigos no comparten con sus amigos titulares basura o sensacionalistas, ni les hacen perder el tiempo recomendándoles páginas absurdas que solo aportan un titular vistoso. Pero ahora, además, habrá buenas razones para no hacerlo…

 

Powered by WPeMatico

El clickbait como perversión del periodismo en la red

IMAGE: Mile Atanasov and Serezniy - 123RFMi columna en El Español de hoy se titula “Clickbait: amarillismo a evitar“, y trata de aproximar criterios con respecto a algo que me parece, sin lugar a dudas, una absurda lacra del periodismo online del momento: la desesperante costumbre de buscar el clic fácil mediante titulares de tipo intrigante o exagerado, cuando no ya directamente ridículo.

La adaptación del periodismo al nuevo entorno definido por la red está siendo compleja. En muchos casos, nada tiene más sentido que adaptar la forma en la que creamos información a un vehículo con menos barreras de entrada, e intrínsecamente más ágil y bidireccional. En otros, esa adaptación peca de “demasiado fácil”, de simpleza, y cae, por ejemplo, en la confección de titulares completamente enunciativos para tratar de mejorar el SEO – con la pérdida que ello conlleva de toda creatividad e imaginación – o, como en el caso del clickbait, el linkbait o los listicles, de un estilo de redacción completamente inflacionado en la búsqueda de la impresión fácil que resulta, sobre todo, completamente insostenible. Una apropiación de elementos del sensacionalismo y del amarillismo que comenzaron a practicar algunos medios y que, debido a su aparente éxito, parece estar extendiéndose como una auténtica epidemia.

Los titulares de ese tipo son, sistemáticamente, un elemento a evitar. Ha llegado a ocurrir incluso dentro de El Español, el medio en el que publico esta misma columna y de cuyo consejo de administración soy orgulloso miembro, y de hecho, ese par de tweets en mi opinión muy poco afortunados son los que me inspiraron a escribirla, en forma de ejercicio de sana autocrítica que creo muy importante en un medio de comunicación.

Evitar este tipo de cosas puede parecer difícil: muchas redacciones aún no cuentan con criterios claros marcados en este sentido en sus libros de estilo, y en ocasiones, ese tipo de elementos pueden parecer una fuente de rentabilidad a corto, de generación de más clics y de posicionamiento del contenido como aparentemente popular. Es falso. El amarillismo de este tipo se paga con lectores desencantados, con desprestigio y con pérdida de credibilidad a medio plazo. No caigamos en esas cosas. Frente a la idea de que el clic lo justifica todo, pensemos que es muy posible que haya clics que, por el bien de la imagen del medio, no queramos tener.

 

Powered by WPeMatico

Algoritmos y sensacionalismos

IMAGE: Alan Cotton - 123RFEs un tema que lleva coleando desde que Larry Page y Sergey Brin tuvieron la idea de, adaptando originalmente el sistema de cuantificación de citas del mundo académico o citation index, desarrollar un motor de búsqueda basado en la relevancia social, en lo que otros decían sobre nuestra página medido en función de sus enlaces hacia ella.

Con su algoritmo, Google solucionó el principal problema que los motores de búsqueda tenían anteriormente, el de tener algoritmos basados en el contenido que resultaban fácilmente manipulables por los propietarios de las páginas, pero falló en un tema fundamental: en la diferenciación entre páginas que obtenían muchos enlaces porque eran objetivamente buenas, y aquellas que los recibían porque eran fundamentalmente sensacionalistas.

El sensacionalismo es, sin duda, un mal de nuestro tiempo. Obtener atención mediante el recurso al escándalo, a llamar la atención a cualquier precio, a condicionar cualquier valor otorgado a la verdad o a la objetividad a la obtención de más atención es algo que lleva mucho tiempo haciéndose, y con resultados indudablemente positivos para quien lo practica. Las sociedades humanas muestran, en muchos casos, tanta o más avidez por el escándalo o por el cotilleo como lo pueden mostrar por la veracidad o la objetividad. En la web, hemos vivido exactamente lo mismo: desde un algoritmo que originalmente primaba aquellos sitios que eran más enlazados con una palabra o palabras determinadas, algoritmo que va siendo progresivamente revisado para incluir a las redes sociales como indicadoras, sobre todo, de la relevancia instantánea o inmediata (que tardaba tradicionalmente más tiempo en reflejarse en forma de enlaces), hasta ver la prostitución del mismo por parte de todo tipo de click-baiters y de “pornógrafos de la atención” que millones de usuarios circulan en función de lo escandaloso o intrigante de su título, o simplemente de paginas que divulgan mentiras grandilocuentes y conspiranoicas, pero que igualmente obtienen enlaces, aunque sean negativos y con objeto de denunciarlas. En la web, y con la algoritmia tradicional, la adaptación de aquella frase de Oscar Wilde tenía muchísima razón: lo importante era que hablasen de uno, aunque fuese mal (la frase original decía “hay solamente una cosa en el mundo peor que el que hablen de ti, y es que no hablen de ti”)

Ahora, Google parece lanzarse a un interesante intento de cambio en su algoritmo que pretende buscar criterios diferentes. Durante más de dieciséis años, nadie ha sido capaz de enfrentarse a Google con un principio que no fuese otro más que el tratar de perfeccionar sus propias reglas, sobre todo la que decía que la mejor manera de medir la relevancia de algo era la vía social, la de analizar qué decían otros sobre ello. Ahora, la tecnología empieza a permitir un nivel de cualificación superior: podemos aplicar análisis semántico a los textos de los enlaces o al contexto que los rodea para diferenciar “enlaces positivos” de “negativos” o “neutros”, y podemos medir otras cuestiones como el clickthrough, o el rebote, para evaluar si la reacción de quien aterriza en un contenido es la de consumirlo o la de salir corriendo (o simplemente, no hacer clic aunque te lo pongan delante de la nariz, porque entiendes que no es más que clickbait, carnaza diseñada para obtener el clic a toda costa).

Estamos hablando de un cambio que puede afectar al desarrollo de toda la web en su conjunto, y que nos lleva a pensar en las posibles implicaciones de que sea una empresa, en este caso Google, la que tenga la clave de “las cosas que son verdad y las que no”. Si Google obtuvo lo que obtuvo con un simple algoritmo cuando no era más que una startup creada por dos universitarios, el posible impacto de un cambio tan dramático en su algoritmo – afectaría a la introducción de nuevas métricas entre los primeros criterios, los de más peso en la indexación – podría tener un alcance potencialmente enorme. Ya no se trataría de obtener enlaces, retweets y compartidos a toda costa, sino de primar la calidad, el enlace con contexto, la métrica que privilegia un consumo de calidad. Según los expertos, con la limitada validez que puede tener la observación de quienes tratan de hacer ingeniería inversa del algoritmo de Google en función de metodologías de diversos tipos, el algoritmo ya ha empezado a cambiar, y hemos pasado de la versión de 2013, que privilegiaba intensamente la compartición en redes sociales, a uno en 2014 que introduce en la cúspide métricas como el clickthrough rate.

Pero todo esto, lógicamente, no es sencillo, y por el momento no hablamos de trabajo conseguido, sino simplemente del ideal buscado. Lo que sí conviene ir pensando es de qué manera afectará a nuestra compañía un cambio así, y qué posibles efecto notaremos una vez que empiece a aplicarse. Pero intereses propios o ajenos aparte… el tema es para dedicarle, cuando menos, una pensadita.

Powered by WPeMatico