Category Archives: sensationalism

Auto Added by WPeMatico

Las noticias falsas como reto tecnológico

Pope endorses Trump (FAKE)Mi columna en El Español de esta semana se titula “Noticias y redes sociales“, y vuelve a incidir sobre el tema de las noticias falsas diseminadas a través de redes sociales, tratando de plasmarlo como un reto que la tecnología tiene que solucionar, fundamentalmente tratando de reconstruir los mismos sistemas que existen en el mundo tradicional.

Las soluciones a problemas complejos no suelen ser sencillas. Pretender luchar contra las noticias falsas simplemente censurando su circulación choca con el hecho de que, a lo largo de muchas décadas de existencia de los medios de comunicación, las noticias falsas y sensacionalistas no han desaparecido, y confirman una industria que factura millones y tiene un público fiel. Sin embargo, en el mundo de la comunicación tradicional, a pesar de que existen decenas de medios sensacionalistas dedicados a inventarse conspiraciones, noticias falsas y rumores absurdos de todo tipo, la influencia de las noticias sensacionalistas no suele trasladarse a los medios considerados serios: las dos órbitas se encuentran razonablemente compartimentadas, lo que lleva a que quien consume basura, en general, sabe que lo está haciendo, y la información que aparece en ese circuito, por l general, no sale de él y limita así su influencia.

Ese es el sistema que, en la reinvención de las noticias a la luz de las redes sociales, falta por desarrollar: no se trata de intentar impedir la circulación de noticias falsas, porque tienen su público y ese público tiene derecho a consumirlas, pero sí de detectarlas, identificarlas y etiquetarlas como lo que son, de restringir su circulación por vías algorítmicas, y de evitar que tengan un incentivo económico directo excluyéndolas de los mecanismos de publicidad.

Prohibir que un tabloide sensacionalista como Daily Mail sea utilizado como fuente de referencia en Wikipedia es razonable dada la naturaleza de la publicación, una enciclopedia, y sin duda, no será el último medio que recibe tal “distinción”. Que Wikipedia, hace años denostada por algunos como una enciclopedia supuestamente no fiable, se haya consolidado como la mejor, más completa y más actualizada enciclopedia de todos los tiempos y pueda ahora convertirse en juez que toma decisiones y sanciona qué publicaciones pueden o no pueden utilizarse en sus referencias es un caso claro que demuestra que, sobre las bases de la red y los procesos sociales, pueden construirse mecanismos que superen claramente en generación de valor a los existentes en el mundo tradicional.

A la hora de reconstruir esos sistemas de referencia en las redes sociales, la tecnología va a resultar fundamental: pretender recurrir a editores humanos para etiquetar las noticias falsas y excluirlas no solo es imposible, sino que aporta potencialmente peligrosos elementos de relatividad. La idea parece tender hacia la combinación de sistemas que examinen los patrones de difusión de las noticias, con otros que incorporen el etiquetado de los usuarios, y con bases de datos que incorporen fuentes y noticias calificadas como no fiables. A partir de ahí, limitar la circulación de las noticias etiquetadas como falsas privándolas de acceso a algoritmos de recomendación automatizados, a sistemas de publicidad y a trending topics. Que leas una noticia falsa porque la hayan compartido contigo seguirá siendo perfectamente posible y formando parte de tu libertad individual, pero al menos debería ir convenientemente caracterizada como lo que es, como ocurre en el quiosco cuando vemos determinados medios.

El problema, de nuevo, no es sencillo. En el mundo tradicional, un medio alcanza la reputación de sensacionalista a lo largo de un tiempo de comportarse como tal. En la red, podemos crear un medio cada mañana, darle una apariencia convincente, y publicar lo que queramos inventarnos y convenga a nuestra agenda en tan solo unos pocos clics. En la red, el desarrollo de sistemas de fact-checking capaces de dar respuesta a este tipo de retos va a exigir la coordinación de abundantes recursos, y no va a ser sencillo, pero eso no quiere decir que no deba plantearse: para las redes sociales y buscadores, de hecho, se conforma como el próximo gran desafío. Ejercicios de colaboración como el que se está desarrollando en Francia sobre el que escribí hace unos días pueden aportar marcos interesantes y laboratorios sobre los que tratar de aislar y evaluar este tipo de cuestiones.

Sigue quedando mucho por hacer. Pero al menos, vamos centrando el problema.

 

Powered by WPeMatico

Facebook en su momento de la verdad

IMAGE: Modified from Alan Cotton - 123RF

La victoria de Donald Trump en las recientes elecciones norteamericanas está teniendo unas inesperadas consecuencias sobre Facebook, una compañía que se ha convertido, gracias a su ambiciosísima estrategia, en el mayor medio de comunicación del mundo, el único que puede presumir de alcanzar a casi 1,800 millones de personas en todo el mundo.

Las primeras respuestas de la compañía ante las acusaciones de haber sido un elemento fundamental en la victoria de Donald Trump no han dejado a nadie satisfecho: escurrir el bulto y decir que en realidad, las noticias falsas son muy pocas e influyen muy poquito es simplemente tratar de negar la mayor, además de cuestionar tu propio negocio. En realidad, la posición de Zuckerberg es tan débil que no convence ni a sus propios empleados, que han llegado incluso a montar una task force para luchar contra las noticias falsas y sensacionalistas, en contra de la opinión del fundador.

Que Facebook influye en sus usuarios resulta completamente innegable: lo demostró en 2012 con su polémico e inmoral experimento de modificación del estado de ánimo, y lo saben todos los anunciantes que gastan dinero en su plataforma. y hasta el propio Donald Trump ha dejado meridianamente claro no solo que Facebook y Twitter fueron elementos fundamentales que le ayudaron a ganar difundiendo sus mensajes, sino que además, las campañas en Facebook se convirtieron en su principal fuente de financiación directa.

No, Mark Zuckerberg ya no puede seguir jugando al “yo no fui”: si sacas pecho afirmando que has cambiado el mundo por tu papel durante la primavera árabe, no puedes después dedicarte a negar tu influencia en unas elecciones. Simplemente no es coherente. La gran realidad es que Facebook se ha convertido en una gran maquinaria fundamental en las campañas políticas, un lugar en el que el uso de noticias falsas, tendenciosas y sensacionalistas no solo se ha convertido en habitual, sino que incluso se ve incentivado. Cortar el acceso a los ingresos publicitarios de aquellas páginas que se dedican a fabricar y circular ese tipo de noticias, siguiendo los pasos de Google, supone un intento de desincentivar este tipo de comportamiento, pero tampoco es una acción inocua: ¿qué es verdad y qué es falso? ¿Quién lo va a decidir? No es lo mismo informar de adelantos de la ciencia, que aún así también pueden comunicarse de manera sensacionalista o tendenciosa, que hacerlo sobre política, ¿no? El gran peligro de pedir a las redes sociales y motores de búsqueda que eliminen las noticias falsas y sensacionalistas es precisamente ese: qué ocurrirá si efectivamente se ponen en esa posición, y cuáles serán los criterios para hacerlo. De hecho, si nos fijamos en el criterio de Snopes, sin duda los mayores expertos en noticias falsas de toda la web, el problema no está en las noticias, sino en los medios.

En este sentido, Google parece caminar unos cuantos metros por delante. La preocupación por los efectos de sus algoritmo sobre las características de la web y su impresión de que el excesivo peso de los elementos sociales estaban convirtiéndose en un incentivo al sensacionalismo llevó a la compañía a replantearse muchas cosas, y a iniciar toda una línea de desarrollo en torno al concepto del Knowledge-Based Trust, o KBT, la más ambiciosa modificación del PageRank desde sus inicios. Todo indica que Facebook está aún my lejos de este tipo de razonamientos: por el momento, sus intentos de detener la polémica en torno a la manipulación de sus trending topics se vieron detenidos por la posibilidad de que sus acciones resultasen ofensivas para los más conservadores.

Donald Trump, con sus ideas del siglo XIX, es un político del siglo XXI. Su campaña grandilocuente y exagerada que desprecia los hechos y resalta el sensacionalismo de las grandes afirmaciones destinadas a ser compartidas en las redes sociales es, en realidad, la responsable de que el término post-truth se haya convertido en la palabra del año para el diccionario Oxford. Ha sabido interpretar las debilidades de un ecosistema a medio hacer como el de las redes sociales, lleno de contradicciones y de protocolos a medio desarrollar, y lo ha convertido en una poderosísima arma electoral. Millones de personas se han adoctrinado voluntaria o involuntariamente en páginas repletas de noticias falsas que no resistirían una simple búsqueda, pero que han leído en un entorno, en una auténtica cámara de los espejos, que les hacía pensar que todos los que les rodeaban, los que les importan y los que siguen o les siguen pensaban igual. Un auténtico amplificador del sensacionalismo. Facebook tuvo su momento de la verdad, y no estuvo a la altura. Prefirió decidir que su verdad era que no había verdad, que cada uno debía tener la suya, o que la verdad era verdad por consenso. Quiso convertirse en el gran editor de noticias del mundo, pero es un editor con un inclasificable sistema de valores vago y amorfo, que responde únicamente a la idea de proporcionar a cada uno aquello con lo que se quiere identificar, con lo que quiere reforzar sus creencias. Una burbuja personalizada, a la medida de nuestras amistades, nuestro entorno y nuestras creencias que algunos han sabido explotar muy bien. Y el resultado de todo esto lo tendremos ahora durante cuatro años en la Casa Blanca.

 

Powered by WPeMatico

Adiós al PageRank

PageRankEl anuncio de Google de volver el PageRank a su naturaleza de métrica interna de la compañía, en lugar de ser una magnitud que podía ser observada por cualquiera, exhibida en una amplia variedad de herramientas o consultada mediante una API pública, debería llevarnos a pensar en las consecuencias de este tipo de medidas de relevancia y las formas de manejarse en una web caracterizada por una brutal sobreabundancia de información.

El PageRank nació como elemento fundamental que dio origen a Google. La idea, original de Larry Page y que lleva su nombre, respondía a una modificación de algo que el fundador veía de manera constante durante su período de estudiante doctoral: el citation index que, en el mundo académico, identifica a los autores más relevantes. El PageRank suponía, en realidad, la traslación prácticamente exacta de la idea de ese índice científico: si en el mundo académico, para saber si un paper determinado es relevante o no, consultamos cuántos otros autores lo citan en su bibliografía y, a su vez, cuál el la importancia relativa de cada uno de los que lo citan, en la web podíamos aplicar lo mismo para atribuir a una página una idea de relevancia.

A partir de esa idea original y tan aparentemente simple, el PageRank se convirtió en una manera de alejar la métrica de relevancia de las sucias manos de unos webmasters que, si podían influirla directamente, la iban invariablemente a contaminar. En efecto, mientras las métricas estuvieron basadas en criterios presentes en la página, el deterioro de los motores de búsqueda fue constante: spam con las palabras clave más buscadas, intentos de esconder absurdamente términos dentro de la página para que los motores de búsqueda los viesen pero los usuarios no, y mil perversiones más. La llegada del PageRank convirtió la manipulación en una tarea indudablemente más compleja, inventó toda una industria millonaria – el SEO – y, al introducir en sus criterios los enlaces provenientes de las redes sociales, tapizó las páginas web de pegatinas de “comparte eso en todas las redes que puedas”, al tiempo que daba lugar a toda una obsesión por el sensacionalismo y el clickbait. Curiosamente, nunca pudimos decir que no se viese venir: si conviertes en métrica sacrosanta el número de veces que otros han compartido o enlazado lo que tú dijiste, no es de extrañar que el sensacionalismo sea el resultado.

En las últimas iteraciones del algoritmo, Google ha ido degradando progresivamente la importancia de las redes sociales, al tiempo que trabajaba en una nueva métrica, el Knowledge-Based Trust score o KBT. Para desarrollar ese criterio que trata de evaluar las páginas por la fiabilidad de su contenido y no tanto por los enlaces que consiguen, Google conforma una red de páginas de confianza, elabora una serie de criterios que considera objetivos, verídicos o fiables, y compara cada página con esos criterios aceptados con el fin de descartar las páginas sensacionalistas, las llenas de factoides absurdos, las inútiles, o las que directamente mienten o dicen barbaridades consideradas en contra de la ciencia o de los criterios de verosimilitud generalmente aceptados.

La idea de un KBT, de una clasificación de las páginas web en función de si dicen la verdad o no, parece interesante desde un punto de vista científico, pero indudablemente peligrosa en manos de una compañía que no solo puede tener su propio criterio sobre lo que es verdad o no, sino también un pasado relativamente turbio en cuanto a la posible manipulación del algoritmo para beneficiarse de ello. ¿Qué ocurriría si, del mismo modo en que Google manipuló su algoritmo en su momento para degradar a determinados competidores a riesgo de dañar a sus usuarios, la compañía terminase estando en una posición desde la que fuese capaz de afectar la manera en que consideramos o evaluamos determinadas cuestiones para concluir si son ciertas o falsas? La idea de un mundo en el que pseudociencias como la homepatía o teorías de la conspiración o pseudocientíficas como los chemtrails o el movimiento antivacunas caigan a la zona de irrelevancia de la web resulta obviamente interesante, pero ¿y si, de manera imperceptible, aquellos movimientos sociopolíticos que no resultasen convenientes para los intereses de Google fuesen relegándose igualmente a esa zona? ¿Estamos dispuestos a confiar ciegamente en que Google – o la empresa que sea – utilizará un algoritmo así de manera completamente objetiva y sin manipulación alguna? ¿Estaría dispuesta Google – o la empresa que fuese – a supervisar sus prácticas en ese sentido con los niveles de transparencia adecuados como para que esa sospecha no pudiese existir?

Los años que han ido desde 1999 hasta 2016 se han caracterizado por definir un mundo en el que lo social era la única manera conocida de evaluar la relevancia. Mientras Google ha definido su algoritmo fundamentalmente mediante componentes sociales, hemos ido viendo cómo todo el resto de los motores de búsqueda se adaptaban a jugar al mismo juego – con resultados obviamente poco exitosos – o desaparecían, al tiempo que veíamos cómo un nuevo tipo de sensacionalismo invadía la web. Pasar a definir la relevancia mediante otros criterios parece recomendable si no queremos pasar el resto de nuestra vida rodeados de titulares absurdamente intrigantes, de listas estúpidas, de personajes dedicados a compartirlo todo a cambio de dinero y de spam social.

Si Google no cambia su algoritmo, no podrás creer lo que pasará después. Pero si efectivamente decide cambiarlo y tratar de consagrar la verdad y la ciencia como criterios, la gran realidad es que tampoco va a ser nada sencillo, y que nos esperan aún unas cuántas curvas. Ese cambio no es trivial: de hecho, es enormemente importante. El criterio por el que el mundo entero decide lo que es o no fiable, lo que es o no relevante o lo que merece o no la pena leer no se cambia fácilmente…

 

Powered by WPeMatico

Algoritmos y sensacionalismos

IMAGE: Alan Cotton - 123RFEs un tema que lleva coleando desde que Larry Page y Sergey Brin tuvieron la idea de, adaptando originalmente el sistema de cuantificación de citas del mundo académico o citation index, desarrollar un motor de búsqueda basado en la relevancia social, en lo que otros decían sobre nuestra página medido en función de sus enlaces hacia ella.

Con su algoritmo, Google solucionó el principal problema que los motores de búsqueda tenían anteriormente, el de tener algoritmos basados en el contenido que resultaban fácilmente manipulables por los propietarios de las páginas, pero falló en un tema fundamental: en la diferenciación entre páginas que obtenían muchos enlaces porque eran objetivamente buenas, y aquellas que los recibían porque eran fundamentalmente sensacionalistas.

El sensacionalismo es, sin duda, un mal de nuestro tiempo. Obtener atención mediante el recurso al escándalo, a llamar la atención a cualquier precio, a condicionar cualquier valor otorgado a la verdad o a la objetividad a la obtención de más atención es algo que lleva mucho tiempo haciéndose, y con resultados indudablemente positivos para quien lo practica. Las sociedades humanas muestran, en muchos casos, tanta o más avidez por el escándalo o por el cotilleo como lo pueden mostrar por la veracidad o la objetividad. En la web, hemos vivido exactamente lo mismo: desde un algoritmo que originalmente primaba aquellos sitios que eran más enlazados con una palabra o palabras determinadas, algoritmo que va siendo progresivamente revisado para incluir a las redes sociales como indicadoras, sobre todo, de la relevancia instantánea o inmediata (que tardaba tradicionalmente más tiempo en reflejarse en forma de enlaces), hasta ver la prostitución del mismo por parte de todo tipo de click-baiters y de “pornógrafos de la atención” que millones de usuarios circulan en función de lo escandaloso o intrigante de su título, o simplemente de paginas que divulgan mentiras grandilocuentes y conspiranoicas, pero que igualmente obtienen enlaces, aunque sean negativos y con objeto de denunciarlas. En la web, y con la algoritmia tradicional, la adaptación de aquella frase de Oscar Wilde tenía muchísima razón: lo importante era que hablasen de uno, aunque fuese mal (la frase original decía “hay solamente una cosa en el mundo peor que el que hablen de ti, y es que no hablen de ti”)

Ahora, Google parece lanzarse a un interesante intento de cambio en su algoritmo que pretende buscar criterios diferentes. Durante más de dieciséis años, nadie ha sido capaz de enfrentarse a Google con un principio que no fuese otro más que el tratar de perfeccionar sus propias reglas, sobre todo la que decía que la mejor manera de medir la relevancia de algo era la vía social, la de analizar qué decían otros sobre ello. Ahora, la tecnología empieza a permitir un nivel de cualificación superior: podemos aplicar análisis semántico a los textos de los enlaces o al contexto que los rodea para diferenciar “enlaces positivos” de “negativos” o “neutros”, y podemos medir otras cuestiones como el clickthrough, o el rebote, para evaluar si la reacción de quien aterriza en un contenido es la de consumirlo o la de salir corriendo (o simplemente, no hacer clic aunque te lo pongan delante de la nariz, porque entiendes que no es más que clickbait, carnaza diseñada para obtener el clic a toda costa).

Estamos hablando de un cambio que puede afectar al desarrollo de toda la web en su conjunto, y que nos lleva a pensar en las posibles implicaciones de que sea una empresa, en este caso Google, la que tenga la clave de “las cosas que son verdad y las que no”. Si Google obtuvo lo que obtuvo con un simple algoritmo cuando no era más que una startup creada por dos universitarios, el posible impacto de un cambio tan dramático en su algoritmo – afectaría a la introducción de nuevas métricas entre los primeros criterios, los de más peso en la indexación – podría tener un alcance potencialmente enorme. Ya no se trataría de obtener enlaces, retweets y compartidos a toda costa, sino de primar la calidad, el enlace con contexto, la métrica que privilegia un consumo de calidad. Según los expertos, con la limitada validez que puede tener la observación de quienes tratan de hacer ingeniería inversa del algoritmo de Google en función de metodologías de diversos tipos, el algoritmo ya ha empezado a cambiar, y hemos pasado de la versión de 2013, que privilegiaba intensamente la compartición en redes sociales, a uno en 2014 que introduce en la cúspide métricas como el clickthrough rate.

Pero todo esto, lógicamente, no es sencillo, y por el momento no hablamos de trabajo conseguido, sino simplemente del ideal buscado. Lo que sí conviene ir pensando es de qué manera afectará a nuestra compañía un cambio así, y qué posibles efecto notaremos una vez que empiece a aplicarse. Pero intereses propios o ajenos aparte… el tema es para dedicarle, cuando menos, una pensadita.

Powered by WPeMatico