Category Archives: sensationalism

Auto Added by WPeMatico

Rápido, desconéctalo antes de que sea demasiado tarde!!

Terminator Mi columna en El Español de esta semana se titula “Alimentando la paranoia” (pdf), y habla de los tratamientos informativos irresponsables y de ese supuesto robot que provocó que los ingenieros de Facebook, presas del pánico, lo desconectasen a toda velocidad porque, perverso él, había desarrollado todo un lenguaje propio que los humanos no podían entender y estaba, sin ninguna duda, preparando la llegada de Terminator para aniquilarnos a todos…

Lo único que merece la pena de esta historia es el evidente mensaje de que cada vez que escuchéis noticias sobre inteligencia artificial con tono tremendista, distópico o fatalista, debéis inmediatamente poner en marcha todas las alarmas correspondientes. Tras las primeras noticias al respecto, que lo tienen todo para ser clasificadas como antologías del disparate, en medios como Tech Times o BGR, resulta impagable leer la reacción de Dhruv Batra, de Facebook AI Research, en su Facebook cuando llegó de una conferencia y se encontró semejante pastel. Menos mal que tenemos Snopes

El caso es un ejemplo clarísimo de paranoia, clickbait e irresponsabilidad informativa. No, los bots de Facebook no estaban fuera de control, ni se habían vuelto demasiado inteligentes, ni nadie acudió corriendo para darle a ningún botón rojo ni tirar de ningún cable antes de que llegase el apocalisis de la humanidad. Nada de eso es cierto. Por triste que resulte a efectos informativos, nadie entró en pánico, ni se escuchó ningún grito desde el interior de la máquina cuando fue desenchufada… porque ni siquiera hubo nada que desenchufar. Traduciendo al propio Dhruv,

“En pocas palabras, los agentes, en entornos diseñados para resolver una tarea, suelen encontrar formas no intuitivas de maximizar la recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento NO es lo mismo que ‘desconectar’ o ‘cerrar AI’. Si ese fuera el caso, cada investigador de IA ha estado ‘cerrando AI’ cada vez que terminan un trabajo en una máquina.”

Se analizó el experimento, y se cambiaron sus parámetros, porque el que la negociación utilizase otros medios de comunicación diferentes al lenguaje humano no aportaba nada. Tampoco es cierto que las máquinas inventasen un lenguaje incomprensible para los humanos: simplemente, utilizaban repeticiones para indicar el número de unidades en una negociación. Big deal.

El tremendismo y el sensacionalismo son siempre una tentación para los medios. Cuando sazonamos esas tentaciones con desconocimiento, se convierten en una combinación peligrosísima. Procura estar atento, o terminarás mirando con ojos temerosos a tu Thermomix y pensando que planea asesinarte…

 

Powered by WPeMatico

Poniendo la basura donde corresponde

IMAGE: Lorelyn Medina - 123RFMi columna de esta semana en El Español se titula “Páginas basura“, y trata de conceptualizar uno de los problemas actuales del periodismo, la abundancia de páginas basadas en el clickbait, el sensacionalismo, el amarillismo y la desinformación, al hilo del reciente anuncio de Facebook de comenzar a “enterrar” en su algoritmo de recomendación de contenidos todas aquellas noticias procedentes de páginas calificadas como de baja calidad.

Las páginas basura son uno de los contenidos que más ha crecido en la web, alimentadas en gran medida por un efecto secundario de algoritmos como el de Google: lo que al principio era un algoritmo interesante basado en la contabilización de los enlaces externos y basado en la traslación a la web del conocido citation index del mundo académico, utilizado desde hace varios siglos, se convirtió, con la popularización de las redes sociales, en una métrica que privilegiaba en exceso lo social sobre la calidad. Peor aún: basándose en métricas como los Likes, los Shares, los retweets, etc., que los usuarios marcaban en muchos casos con un componente muy escaso de introspección o reflexión, lo que debía ser una métrica de relevancia se convirtió, en realidad, en algo que privilegiaba aquella información que más sorprendía, más llamaba la atención o más intrigaba.

El cómo una métrica de relevancia se estropea al pasar a un mecanismo de captación de indicadores supuestamente más democrático es un tema que, como tal, me parece fascinante: en la web de 1990, cuando Google comenzó a escalar en popularidad, las métricas que recogía eran enlaces a páginas con palabras clave (el anchor text) cualificados a su vez en función del número de enlaces entrantes que poseía la página origen, unido a algunos factores más de corrección. Para Larry Page, pasar a la web un algoritmo con el que estaba perfectamente familiarizado, el citation index que le indicaba como estudiante doctoral si un paper académico era o no relevante en función de las veces que aparecía en las referencias de otros papers, fue en realidad una idea genial. El sistema funcionaba: no solo lograba una métrica de relevancia convincente, sino que además, alejaba el control de las manos de los autores de las páginas, lo que lo hacía menos manipulable que los anteriores. Al producirse la popularización de las redes sociales, Google detectó que mecanismos como el Like de Facebook o los trending topics de Twitter podían convertirse en métricas de relevancia más rápidas que la suya, y comenzó a basar su algoritmo cada vez más en este tipo de parámetros. El resultado de privilegiar esas métricas fue una hiperinflación de la web en torno a lo social: las páginas se llenaron de “pegatinas” que pedían el Like, el Share, el retweet o la compartición de todo tipo, y la aparición cada vez más persistente de páginas orientadas a generar esas métricas. A todos los efectos, una concepción errónea de relevancia.

Con el tiempo, Google parece haber ido corrigiendo ese mecanismo: los parámetros sociales llevan tiempo descendiendo en su ponderación, y la compañía parece evolucionar hacia algo como el KBT, del que hemos hablado en otras ocasiones, para determinar una métrica de calidad de las páginas y, consecuentemente, de su relevancia. La consigna es clara: no se puede privilegiar en términos de relevancia a páginas que busquen el clic a toda costa basándose en técnicas que nadie considera bueno privilegiar.

El gran problema de las páginas basura, no obstante, es su heterogeneidad y la laxitud en su definición. Son, en muchos sentidos, como la famosa resolución de aquel juez norteamericano que trataba de explicar si un contenido era o no obsceno con la frase I know it when I see it, “lo sé cuando lo veo”. La medida anunciada por Facebook es, claramente, una manera de intentar determinar precisamente eso: si una página es basura o no, en función de una definición establecida como “páginas que contengan poco contenido sustantivo, cubiertas de anuncios molestos, excesivamente impactantes o maliciosos”. Y si efectivamente lo es, tratar de evitar la posibilidad de que alcance más visibilidad gracias a sus algoritmos.

Las páginas basura son el equivalente en la web del periodismo amarillo y de los tabloides: sin duda, un contenido que tiene sus adeptos, y que en algunos países genera un negocio importante. En su paso a internet, con la disminución de la fricción y con la facilidad para generar métricas de relevancia erróneas, el fenómeno se disparó hasta límites insostenibles. Medidas como las tomadas por Facebook o Google son fundamentales para poner coto a su desarrollo, para mejorar la calidad de la web. El resto de la responsabilidad corresponde al usuario, que si bien debe seguir manteniendo la libertad de poder compartir lo que le venga en gana, debe reflexionar sobre la idoneidad de asociar su imagen con la de páginas de esas características, y desarrollar unas mínimas opciones y criterio sobre la calidad de la información que maneja y comparte.

En cualquier caso, todo indica que las cosas estarán más difíciles para los medios que en su momento, y con una orientación claramente cortoplacista, optaron por ese tipo de tácticas para incrementar su visibilidad. Medidas que tienden a hacer algo muy necesario y positivo: poner las cosas en su sitio y sacar la basura a donde corresponde.

 

Powered by WPeMatico

Facebook se destaca frente a Google en la lucha contra las noticias falsas

Facebook disputed news

Facebook pone en marcha su mecanismo para etiquetar las noticias disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una serie de principios de funcionamiento. El movimiento de Facebook coincide precisamente con el momento en que Google empieza a recibir fuertes críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el más mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información supuestamente fiable y considerándolos como respuestas válidas.

El mecanismo empleado por Facebook parece claro: recurrir a una serie de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la posibilidad de que el mecanismo no sea suficientemente rápido, y que para el momento en que los equipos de fact checking hayan podido llevar a cabo sus comprobaciones con rigor, la difusión ya se haya llevado a cabo y el daño, en gran medida, ya esté hecho. A su favor, la posibilidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del número de veces que las noticias que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan aprender a etiquetar esas noticias no tanto en términos de la noticia en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

Fake Obama coupEn el caso de Google, el problema fundamental parece partir precisamente de la no aplicación de ningún tipo de inteligencia: los snippets que el buscador destaca en respuesta a ciertas búsquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar precisamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de manera prominente teorías conspiranoicas ante búsquedas como “planea Obama un golpe de estado”, o destaque respuestas planteadas como broma por Monty Python como si fueran una verdadera explicación de por qué razón los coches de bomberos son rojos es algo que deja a la compañía en muy mal lugar, sobre todo después de que su director general, Sundar Pichai, destacase en repetidas ocasiones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el problema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno detrás de otros los diez resultados de una página de resultados o SERP (Search Engine Results Page), sino que tiene que escoger una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el aparato escoge sistemáticamente la respuesta destacada por Google en su snippet y el mecanismo por el que se obtiene ese snippet carece de la inteligencia suficiente para discernir cuándo un resultado proviene de un sitio fiable o de una página absurdamente tendenciosa, el resultado es, en muchas ocasiones, que formulas una pregunta a tu Google Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo completamente la credibilidad de la compañía y de su tecnología – más aún teniendo en cuenta que los usuarios de Google Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de identificar (y de ofenderse) con este tipo de respuestas.

Que Google, compañía con dieciocho años de experiencia en la búsqueda, caiga en un error tan de base como que sus resultados no estén a la altura como para ser leídos por una máquina y suministrados como respuesta única a una pregunta, debería llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el problema de credibilidad que puede llegar a representar si no se corrige de manera rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya más allá de la simple supervisión manual caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los datos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson empieza a decir tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con páginas sensacionalistas o tendenciosas de ínfima calidad, tus respuestas no valdrán nada.

 

Powered by WPeMatico

Las noticias falsas como reto tecnológico

Pope endorses Trump (FAKE)Mi columna en El Español de esta semana se titula “Noticias y redes sociales“, y vuelve a incidir sobre el tema de las noticias falsas diseminadas a través de redes sociales, tratando de plasmarlo como un reto que la tecnología tiene que solucionar, fundamentalmente tratando de reconstruir los mismos sistemas que existen en el mundo tradicional.

Las soluciones a problemas complejos no suelen ser sencillas. Pretender luchar contra las noticias falsas simplemente censurando su circulación choca con el hecho de que, a lo largo de muchas décadas de existencia de los medios de comunicación, las noticias falsas y sensacionalistas no han desaparecido, y confirman una industria que factura millones y tiene un público fiel. Sin embargo, en el mundo de la comunicación tradicional, a pesar de que existen decenas de medios sensacionalistas dedicados a inventarse conspiraciones, noticias falsas y rumores absurdos de todo tipo, la influencia de las noticias sensacionalistas no suele trasladarse a los medios considerados serios: las dos órbitas se encuentran razonablemente compartimentadas, lo que lleva a que quien consume basura, en general, sabe que lo está haciendo, y la información que aparece en ese circuito, por l general, no sale de él y limita así su influencia.

Ese es el sistema que, en la reinvención de las noticias a la luz de las redes sociales, falta por desarrollar: no se trata de intentar impedir la circulación de noticias falsas, porque tienen su público y ese público tiene derecho a consumirlas, pero sí de detectarlas, identificarlas y etiquetarlas como lo que son, de restringir su circulación por vías algorítmicas, y de evitar que tengan un incentivo económico directo excluyéndolas de los mecanismos de publicidad.

Prohibir que un tabloide sensacionalista como Daily Mail sea utilizado como fuente de referencia en Wikipedia es razonable dada la naturaleza de la publicación, una enciclopedia, y sin duda, no será el último medio que recibe tal “distinción”. Que Wikipedia, hace años denostada por algunos como una enciclopedia supuestamente no fiable, se haya consolidado como la mejor, más completa y más actualizada enciclopedia de todos los tiempos y pueda ahora convertirse en juez que toma decisiones y sanciona qué publicaciones pueden o no pueden utilizarse en sus referencias es un caso claro que demuestra que, sobre las bases de la red y los procesos sociales, pueden construirse mecanismos que superen claramente en generación de valor a los existentes en el mundo tradicional.

A la hora de reconstruir esos sistemas de referencia en las redes sociales, la tecnología va a resultar fundamental: pretender recurrir a editores humanos para etiquetar las noticias falsas y excluirlas no solo es imposible, sino que aporta potencialmente peligrosos elementos de relatividad. La idea parece tender hacia la combinación de sistemas que examinen los patrones de difusión de las noticias, con otros que incorporen el etiquetado de los usuarios, y con bases de datos que incorporen fuentes y noticias calificadas como no fiables. A partir de ahí, limitar la circulación de las noticias etiquetadas como falsas privándolas de acceso a algoritmos de recomendación automatizados, a sistemas de publicidad y a trending topics. Que leas una noticia falsa porque la hayan compartido contigo seguirá siendo perfectamente posible y formando parte de tu libertad individual, pero al menos debería ir convenientemente caracterizada como lo que es, como ocurre en el quiosco cuando vemos determinados medios.

El problema, de nuevo, no es sencillo. En el mundo tradicional, un medio alcanza la reputación de sensacionalista a lo largo de un tiempo de comportarse como tal. En la red, podemos crear un medio cada mañana, darle una apariencia convincente, y publicar lo que queramos inventarnos y convenga a nuestra agenda en tan solo unos pocos clics. En la red, el desarrollo de sistemas de fact-checking capaces de dar respuesta a este tipo de retos va a exigir la coordinación de abundantes recursos, y no va a ser sencillo, pero eso no quiere decir que no deba plantearse: para las redes sociales y buscadores, de hecho, se conforma como el próximo gran desafío. Ejercicios de colaboración como el que se está desarrollando en Francia sobre el que escribí hace unos días pueden aportar marcos interesantes y laboratorios sobre los que tratar de aislar y evaluar este tipo de cuestiones.

Sigue quedando mucho por hacer. Pero al menos, vamos centrando el problema.

 

Powered by WPeMatico

Facebook en su momento de la verdad

IMAGE: Modified from Alan Cotton - 123RF

La victoria de Donald Trump en las recientes elecciones norteamericanas está teniendo unas inesperadas consecuencias sobre Facebook, una compañía que se ha convertido, gracias a su ambiciosísima estrategia, en el mayor medio de comunicación del mundo, el único que puede presumir de alcanzar a casi 1,800 millones de personas en todo el mundo.

Las primeras respuestas de la compañía ante las acusaciones de haber sido un elemento fundamental en la victoria de Donald Trump no han dejado a nadie satisfecho: escurrir el bulto y decir que en realidad, las noticias falsas son muy pocas e influyen muy poquito es simplemente tratar de negar la mayor, además de cuestionar tu propio negocio. En realidad, la posición de Zuckerberg es tan débil que no convence ni a sus propios empleados, que han llegado incluso a montar una task force para luchar contra las noticias falsas y sensacionalistas, en contra de la opinión del fundador.

Que Facebook influye en sus usuarios resulta completamente innegable: lo demostró en 2012 con su polémico e inmoral experimento de modificación del estado de ánimo, y lo saben todos los anunciantes que gastan dinero en su plataforma. y hasta el propio Donald Trump ha dejado meridianamente claro no solo que Facebook y Twitter fueron elementos fundamentales que le ayudaron a ganar difundiendo sus mensajes, sino que además, las campañas en Facebook se convirtieron en su principal fuente de financiación directa.

No, Mark Zuckerberg ya no puede seguir jugando al “yo no fui”: si sacas pecho afirmando que has cambiado el mundo por tu papel durante la primavera árabe, no puedes después dedicarte a negar tu influencia en unas elecciones. Simplemente no es coherente. La gran realidad es que Facebook se ha convertido en una gran maquinaria fundamental en las campañas políticas, un lugar en el que el uso de noticias falsas, tendenciosas y sensacionalistas no solo se ha convertido en habitual, sino que incluso se ve incentivado. Cortar el acceso a los ingresos publicitarios de aquellas páginas que se dedican a fabricar y circular ese tipo de noticias, siguiendo los pasos de Google, supone un intento de desincentivar este tipo de comportamiento, pero tampoco es una acción inocua: ¿qué es verdad y qué es falso? ¿Quién lo va a decidir? No es lo mismo informar de adelantos de la ciencia, que aún así también pueden comunicarse de manera sensacionalista o tendenciosa, que hacerlo sobre política, ¿no? El gran peligro de pedir a las redes sociales y motores de búsqueda que eliminen las noticias falsas y sensacionalistas es precisamente ese: qué ocurrirá si efectivamente se ponen en esa posición, y cuáles serán los criterios para hacerlo. De hecho, si nos fijamos en el criterio de Snopes, sin duda los mayores expertos en noticias falsas de toda la web, el problema no está en las noticias, sino en los medios.

En este sentido, Google parece caminar unos cuantos metros por delante. La preocupación por los efectos de sus algoritmo sobre las características de la web y su impresión de que el excesivo peso de los elementos sociales estaban convirtiéndose en un incentivo al sensacionalismo llevó a la compañía a replantearse muchas cosas, y a iniciar toda una línea de desarrollo en torno al concepto del Knowledge-Based Trust, o KBT, la más ambiciosa modificación del PageRank desde sus inicios. Todo indica que Facebook está aún my lejos de este tipo de razonamientos: por el momento, sus intentos de detener la polémica en torno a la manipulación de sus trending topics se vieron detenidos por la posibilidad de que sus acciones resultasen ofensivas para los más conservadores.

Donald Trump, con sus ideas del siglo XIX, es un político del siglo XXI. Su campaña grandilocuente y exagerada que desprecia los hechos y resalta el sensacionalismo de las grandes afirmaciones destinadas a ser compartidas en las redes sociales es, en realidad, la responsable de que el término post-truth se haya convertido en la palabra del año para el diccionario Oxford. Ha sabido interpretar las debilidades de un ecosistema a medio hacer como el de las redes sociales, lleno de contradicciones y de protocolos a medio desarrollar, y lo ha convertido en una poderosísima arma electoral. Millones de personas se han adoctrinado voluntaria o involuntariamente en páginas repletas de noticias falsas que no resistirían una simple búsqueda, pero que han leído en un entorno, en una auténtica cámara de los espejos, que les hacía pensar que todos los que les rodeaban, los que les importan y los que siguen o les siguen pensaban igual. Un auténtico amplificador del sensacionalismo. Facebook tuvo su momento de la verdad, y no estuvo a la altura. Prefirió decidir que su verdad era que no había verdad, que cada uno debía tener la suya, o que la verdad era verdad por consenso. Quiso convertirse en el gran editor de noticias del mundo, pero es un editor con un inclasificable sistema de valores vago y amorfo, que responde únicamente a la idea de proporcionar a cada uno aquello con lo que se quiere identificar, con lo que quiere reforzar sus creencias. Una burbuja personalizada, a la medida de nuestras amistades, nuestro entorno y nuestras creencias que algunos han sabido explotar muy bien. Y el resultado de todo esto lo tendremos ahora durante cuatro años en la Casa Blanca.

 

Powered by WPeMatico

Adiós al PageRank

PageRankEl anuncio de Google de volver el PageRank a su naturaleza de métrica interna de la compañía, en lugar de ser una magnitud que podía ser observada por cualquiera, exhibida en una amplia variedad de herramientas o consultada mediante una API pública, debería llevarnos a pensar en las consecuencias de este tipo de medidas de relevancia y las formas de manejarse en una web caracterizada por una brutal sobreabundancia de información.

El PageRank nació como elemento fundamental que dio origen a Google. La idea, original de Larry Page y que lleva su nombre, respondía a una modificación de algo que el fundador veía de manera constante durante su período de estudiante doctoral: el citation index que, en el mundo académico, identifica a los autores más relevantes. El PageRank suponía, en realidad, la traslación prácticamente exacta de la idea de ese índice científico: si en el mundo académico, para saber si un paper determinado es relevante o no, consultamos cuántos otros autores lo citan en su bibliografía y, a su vez, cuál el la importancia relativa de cada uno de los que lo citan, en la web podíamos aplicar lo mismo para atribuir a una página una idea de relevancia.

A partir de esa idea original y tan aparentemente simple, el PageRank se convirtió en una manera de alejar la métrica de relevancia de las sucias manos de unos webmasters que, si podían influirla directamente, la iban invariablemente a contaminar. En efecto, mientras las métricas estuvieron basadas en criterios presentes en la página, el deterioro de los motores de búsqueda fue constante: spam con las palabras clave más buscadas, intentos de esconder absurdamente términos dentro de la página para que los motores de búsqueda los viesen pero los usuarios no, y mil perversiones más. La llegada del PageRank convirtió la manipulación en una tarea indudablemente más compleja, inventó toda una industria millonaria – el SEO – y, al introducir en sus criterios los enlaces provenientes de las redes sociales, tapizó las páginas web de pegatinas de “comparte eso en todas las redes que puedas”, al tiempo que daba lugar a toda una obsesión por el sensacionalismo y el clickbait. Curiosamente, nunca pudimos decir que no se viese venir: si conviertes en métrica sacrosanta el número de veces que otros han compartido o enlazado lo que tú dijiste, no es de extrañar que el sensacionalismo sea el resultado.

En las últimas iteraciones del algoritmo, Google ha ido degradando progresivamente la importancia de las redes sociales, al tiempo que trabajaba en una nueva métrica, el Knowledge-Based Trust score o KBT. Para desarrollar ese criterio que trata de evaluar las páginas por la fiabilidad de su contenido y no tanto por los enlaces que consiguen, Google conforma una red de páginas de confianza, elabora una serie de criterios que considera objetivos, verídicos o fiables, y compara cada página con esos criterios aceptados con el fin de descartar las páginas sensacionalistas, las llenas de factoides absurdos, las inútiles, o las que directamente mienten o dicen barbaridades consideradas en contra de la ciencia o de los criterios de verosimilitud generalmente aceptados.

La idea de un KBT, de una clasificación de las páginas web en función de si dicen la verdad o no, parece interesante desde un punto de vista científico, pero indudablemente peligrosa en manos de una compañía que no solo puede tener su propio criterio sobre lo que es verdad o no, sino también un pasado relativamente turbio en cuanto a la posible manipulación del algoritmo para beneficiarse de ello. ¿Qué ocurriría si, del mismo modo en que Google manipuló su algoritmo en su momento para degradar a determinados competidores a riesgo de dañar a sus usuarios, la compañía terminase estando en una posición desde la que fuese capaz de afectar la manera en que consideramos o evaluamos determinadas cuestiones para concluir si son ciertas o falsas? La idea de un mundo en el que pseudociencias como la homepatía o teorías de la conspiración o pseudocientíficas como los chemtrails o el movimiento antivacunas caigan a la zona de irrelevancia de la web resulta obviamente interesante, pero ¿y si, de manera imperceptible, aquellos movimientos sociopolíticos que no resultasen convenientes para los intereses de Google fuesen relegándose igualmente a esa zona? ¿Estamos dispuestos a confiar ciegamente en que Google – o la empresa que sea – utilizará un algoritmo así de manera completamente objetiva y sin manipulación alguna? ¿Estaría dispuesta Google – o la empresa que fuese – a supervisar sus prácticas en ese sentido con los niveles de transparencia adecuados como para que esa sospecha no pudiese existir?

Los años que han ido desde 1999 hasta 2016 se han caracterizado por definir un mundo en el que lo social era la única manera conocida de evaluar la relevancia. Mientras Google ha definido su algoritmo fundamentalmente mediante componentes sociales, hemos ido viendo cómo todo el resto de los motores de búsqueda se adaptaban a jugar al mismo juego – con resultados obviamente poco exitosos – o desaparecían, al tiempo que veíamos cómo un nuevo tipo de sensacionalismo invadía la web. Pasar a definir la relevancia mediante otros criterios parece recomendable si no queremos pasar el resto de nuestra vida rodeados de titulares absurdamente intrigantes, de listas estúpidas, de personajes dedicados a compartirlo todo a cambio de dinero y de spam social.

Si Google no cambia su algoritmo, no podrás creer lo que pasará después. Pero si efectivamente decide cambiarlo y tratar de consagrar la verdad y la ciencia como criterios, la gran realidad es que tampoco va a ser nada sencillo, y que nos esperan aún unas cuántas curvas. Ese cambio no es trivial: de hecho, es enormemente importante. El criterio por el que el mundo entero decide lo que es o no fiable, lo que es o no relevante o lo que merece o no la pena leer no se cambia fácilmente…

 

Powered by WPeMatico

Algoritmos y sensacionalismos

IMAGE: Alan Cotton - 123RFEs un tema que lleva coleando desde que Larry Page y Sergey Brin tuvieron la idea de, adaptando originalmente el sistema de cuantificación de citas del mundo académico o citation index, desarrollar un motor de búsqueda basado en la relevancia social, en lo que otros decían sobre nuestra página medido en función de sus enlaces hacia ella.

Con su algoritmo, Google solucionó el principal problema que los motores de búsqueda tenían anteriormente, el de tener algoritmos basados en el contenido que resultaban fácilmente manipulables por los propietarios de las páginas, pero falló en un tema fundamental: en la diferenciación entre páginas que obtenían muchos enlaces porque eran objetivamente buenas, y aquellas que los recibían porque eran fundamentalmente sensacionalistas.

El sensacionalismo es, sin duda, un mal de nuestro tiempo. Obtener atención mediante el recurso al escándalo, a llamar la atención a cualquier precio, a condicionar cualquier valor otorgado a la verdad o a la objetividad a la obtención de más atención es algo que lleva mucho tiempo haciéndose, y con resultados indudablemente positivos para quien lo practica. Las sociedades humanas muestran, en muchos casos, tanta o más avidez por el escándalo o por el cotilleo como lo pueden mostrar por la veracidad o la objetividad. En la web, hemos vivido exactamente lo mismo: desde un algoritmo que originalmente primaba aquellos sitios que eran más enlazados con una palabra o palabras determinadas, algoritmo que va siendo progresivamente revisado para incluir a las redes sociales como indicadoras, sobre todo, de la relevancia instantánea o inmediata (que tardaba tradicionalmente más tiempo en reflejarse en forma de enlaces), hasta ver la prostitución del mismo por parte de todo tipo de click-baiters y de “pornógrafos de la atención” que millones de usuarios circulan en función de lo escandaloso o intrigante de su título, o simplemente de paginas que divulgan mentiras grandilocuentes y conspiranoicas, pero que igualmente obtienen enlaces, aunque sean negativos y con objeto de denunciarlas. En la web, y con la algoritmia tradicional, la adaptación de aquella frase de Oscar Wilde tenía muchísima razón: lo importante era que hablasen de uno, aunque fuese mal (la frase original decía “hay solamente una cosa en el mundo peor que el que hablen de ti, y es que no hablen de ti”)

Ahora, Google parece lanzarse a un interesante intento de cambio en su algoritmo que pretende buscar criterios diferentes. Durante más de dieciséis años, nadie ha sido capaz de enfrentarse a Google con un principio que no fuese otro más que el tratar de perfeccionar sus propias reglas, sobre todo la que decía que la mejor manera de medir la relevancia de algo era la vía social, la de analizar qué decían otros sobre ello. Ahora, la tecnología empieza a permitir un nivel de cualificación superior: podemos aplicar análisis semántico a los textos de los enlaces o al contexto que los rodea para diferenciar “enlaces positivos” de “negativos” o “neutros”, y podemos medir otras cuestiones como el clickthrough, o el rebote, para evaluar si la reacción de quien aterriza en un contenido es la de consumirlo o la de salir corriendo (o simplemente, no hacer clic aunque te lo pongan delante de la nariz, porque entiendes que no es más que clickbait, carnaza diseñada para obtener el clic a toda costa).

Estamos hablando de un cambio que puede afectar al desarrollo de toda la web en su conjunto, y que nos lleva a pensar en las posibles implicaciones de que sea una empresa, en este caso Google, la que tenga la clave de “las cosas que son verdad y las que no”. Si Google obtuvo lo que obtuvo con un simple algoritmo cuando no era más que una startup creada por dos universitarios, el posible impacto de un cambio tan dramático en su algoritmo – afectaría a la introducción de nuevas métricas entre los primeros criterios, los de más peso en la indexación – podría tener un alcance potencialmente enorme. Ya no se trataría de obtener enlaces, retweets y compartidos a toda costa, sino de primar la calidad, el enlace con contexto, la métrica que privilegia un consumo de calidad. Según los expertos, con la limitada validez que puede tener la observación de quienes tratan de hacer ingeniería inversa del algoritmo de Google en función de metodologías de diversos tipos, el algoritmo ya ha empezado a cambiar, y hemos pasado de la versión de 2013, que privilegiaba intensamente la compartición en redes sociales, a uno en 2014 que introduce en la cúspide métricas como el clickthrough rate.

Pero todo esto, lógicamente, no es sencillo, y por el momento no hablamos de trabajo conseguido, sino simplemente del ideal buscado. Lo que sí conviene ir pensando es de qué manera afectará a nuestra compañía un cambio así, y qué posibles efecto notaremos una vez que empiece a aplicarse. Pero intereses propios o ajenos aparte… el tema es para dedicarle, cuando menos, una pensadita.

Powered by WPeMatico