Category Archives: news

Auto Added by WPeMatico

Google, la información… y el tiempo perdido

Google what? Google lanza una actualización prácticamente sin nombre de una actualización igualmente anunciada sin nombre en diciembre del pasado año, confirmando que es, posiblemente, una de las empresa que peor entiende la comunicación del mundo, posiblemente la más torpe de su tamaño e importancia a la hora de comunicar al mundo lo que hace.

El nuevo desarrollo está basado en un feed, en una serie de contenidos que acompañan a la caja de búsqueda y que se actualizan constantemente en función de los intereses del usuario y la coyuntura en la que se encuentra, al estilo de lo que conocían los que utilizaban Google Now. Pero ahora, lo que pretende Google es que pasemos a utilizar su página o su app para informarnos de lo que nos interesa, llenar ese enorme espacio blanco característico con aquellas noticias o temas que sus algoritmos creen que queremos ver.

El problema de Google es claro: la búsqueda nos proporciona información cuando, en efecto, queremos activamente buscar algo. Pero cuando no es así, cuando lo único que queremos es enterarnos de lo que pasa en el mundo, Google se había convertido en irrelevante con la imperfecta excepción de Google News (que nos informaba de las noticias de los medios, no necesariamente de cualquier otro contenido no mediático en el que pudiésemos tener interés). Desde hace mucho tiempo, cuando queremos informarnos de según qué temas, acudimos a sitios como Twitter, Facebook, LinkedIn, Pinterest, Flipboard y muchos otros, pero decididamente no a Google. Google es para hacer una búsqueda, no para informarte de los temas que te interesan.

Ahora, Google pretende aprovechar toda la información que obtiene de nosotros para que sus algoritmos entiendan en qué cosas estamos interesados, y construyan con ello un feed en permanente cambio, un suministro permanente de información relevante sobre lo que aparentemente queremos saber. Para ello, necesita diferenciar entre lo que buscamos de manera coyuntural, para obtener un resultado rápido posiblemente importante en el momento pero no necesariamente representativo de nuestros intereses, y lo que sí nos interesa de verdad, manteniendo las primeras como simples búsquedas, pero permitiéndonos que pasemos a seguir las segundas, con un botón de Follow en los resultados que permita ajustar el feed que veremos al entrar en Google con los resultados relevantes en ese tema.

La idea, como tal, no es mala. Algunas cosas que Google ha hecho con Google Now utilizando la información de nuestros correos, por ejemplo, son casi mágicas, y decididamente útiles. Sin duda, la iniciativa refleja la obsesión de Google por apartarse de un terreno, lo social, que jamás ha logrado entender y en el que ha cosechado posiblemente sus mayores fracasos como compañía: la relevancia de nuestro feed, de los temas que queremos seguir y que aparecerán ante nuestros ojos, la marcamos nosotros, no nuestra red, ni nuestros amigos, ni la agenda mediática. Nuestro feed es nuestro, no de nuestros amigos o conocidos, una especie de anti-Facebook o de rechazo a lo social: dame lo que me interesa a mí, no me des más fotos de los bebés de mis amigos, por muy monos que sean. Habrá que ver si eso funciona adecuadamente, o si se convierte en una manera de que nos perdamos aquellas noticias que posiblemente en principio no estuviesen entre nuestros intereses pero sean verdaderamente relevantes, y por tanto pasen a interesarnos. Seguramente no marcaría a Corea del Norte como uno de mis intereses, pero si Kim Jong Un lanza un misil nuclear, me temo que, quiera o no, pasa a interesarme, y seguramente bastante. Con seguridad no marcaría determinadas cosas como un interés mío, pero si se convierte súbitamente en un interés de todos mis amigos, seguramente querré saberlo, aunque solo sea para tener tema de conversación con ellos y que no parezca que vivo aislado en una cueva.

La idea de Google parece ser evitar la construcción de esa mítica burbuja definida por Eli Pariser en su libro The filter bubble que, supuestamente, dependía de las acciones de nuestro entorno, de nuestros amigos, de nuestros Likes. De alguna manera, Google parece creer que eliminando los amigos, los Likes, la elección de fuentes concretas y toda traza de mecanismos sociales, podremos eliminar esa burbuja. La gran realidad, mucho me temo, es que esa burbuja es algo que construimos nosotros mismos, que ahora pasaremos simplemente a vivir en burbujas construidas algorítmicamente, y que lo social, al menos, nos daba cierta posibilidad, a los que tenían una mentalidad suficientemente abierta, de que entrasen otros elementos en la burbuja que no habrían seleccionado como intereses ellos mismos. Sinceramente, entiendo el interés de Google en abandonar los desarrollos sociales viendo lo espantosamente mal que lo han hecho en ellos tradicionalmente, pero tengo serias dudas de que sustituir los mecanismos sociales por otros algorítmicos sea capaz de eliminar ninguna burbuja.

Por otro lado, la idea de seguir activamente temas y marcarlos en una página genera una desagradable sensación de tiempo perdido, de déjà vu, de nostalgia del producto cuyo abandono fue posiblemente uno de los mayores errores de Google: el cierre de Google Reader. Con Reader, Google no solo tenía una imagen clarísima y no filtrada de mis intereses, sino que, además, tenía una base perfecta para que, con mis acciones, educase a sus algoritmos sobre lo que realmente me interesaba y lo que no. Desde la base de Google Reader, la compañía podía haber construido el super-producto capaz de hacer que todos sus clientes se sintiesen bien y activamente informados. A día de hoy, sería el líder en información. Y en su lugar, renunció a entenderlo, lo cerró, y envió a sus usuarios a buscarse la vida a otras compañías, despreciándolos totalmente y sin darles ninguna solución propia. Con ello renunció a toda posible aplicación de lo que en aquel momento, en 2013, ya era una creciente realidad: el machine learning. Si querías aprender de los intereses de tus usuarios y usar esa información para educar a tus algoritmos, Google Reader era el producto perfecto. Viendo lo que Google lanza ahora, a mediados de 2017, podemos ya asegurar sin miedo a equivocarnos que el cierre de Google Reader en 2013 fue un absurdo y estúpido error de primera magnitud, y que el pequeño producto que desapareció en una Spring Cleaning firmada por Urs Hölzle representaba mucho más y tenía mucha más importancia potencial de lo que algún torpe directivo nunca fue capaz de ver. Desde el cierre de Google Reader me informo en Feedly, convertido en hogar para los varios millones de “refugiados” de Reader, y resultará muy difícil sacarme de ahí, y opto por redes sociales para esa parte de la información que no proviene de los temas que activamente sigo, sino de la coyuntura exterior o de lo que leen las personas a las que decido seguir.

El espacio que ahora Google pretende reclamar está ahora ocupado por un montón de aplicaciones, la mayoría con base social, que aspiran a mantener a sus usuarios bien informados. Y es ahora cuando viene Google a decirles que si marcan determinadas búsquedas, será esa página, que identifican con “búsqueda y nada más”, la que les mantendrá informados de lo que les interese. Suerte. No digo que no vaya a funcionar, podría hacerlo porque hay muchos usuarios que se informarán simplemente con lo que les pille más a mano… pero es una espantosa forma de reconocer un error y de demostrar que se han perdido miserablemente más de cuatro años. ¿Mi experiencia por el momento? Aquello que los algoritmos de Google creen que es en lo que estoy interesado coincide más bien poco con mis verdaderos intereses. A lo mejor es que soy un raro.

Ahora, Google quiere que vayas a su página no solo a buscar cosas, sino a informarte en función de lo que sus algoritmos estiman que te interesa. Ya sabes los riesgos de eso: no le tomes mucho cariño, porque como todo servicio de Google, te lo pueden cerrar de un día para otro según les dé por ahí, de manera completamente errática y sin que exista una razón clara. Para los periódicos, una posible fuente de tráfico además de Google News (salvo que vivas en España y no tengas Google News), o una manera de depender más aún de los algoritmos de la compañía, algo que sin duda deberán tener en cuenta. Pero si aún así te gusta y eres capaz de cambiar la percepción de la página de Google para que, además de un buscador, sea una especie de periódico personal que posiblemente llegue a reflejar tus intereses, ya sabes… di adiós al icónico espacio blanco de la página de búsqueda, y ahí lo tienes.

 

Powered by WPeMatico

Identificando patrones de difusión viral

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico

Facebook se destaca frente a Google en la lucha contra las noticias falsas

Facebook disputed news

Facebook pone en marcha su mecanismo para etiquetar las noticias disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una serie de principios de funcionamiento. El movimiento de Facebook coincide precisamente con el momento en que Google empieza a recibir fuertes críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el más mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información supuestamente fiable y considerándolos como respuestas válidas.

El mecanismo empleado por Facebook parece claro: recurrir a una serie de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la posibilidad de que el mecanismo no sea suficientemente rápido, y que para el momento en que los equipos de fact checking hayan podido llevar a cabo sus comprobaciones con rigor, la difusión ya se haya llevado a cabo y el daño, en gran medida, ya esté hecho. A su favor, la posibilidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del número de veces que las noticias que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan aprender a etiquetar esas noticias no tanto en términos de la noticia en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

Fake Obama coupEn el caso de Google, el problema fundamental parece partir precisamente de la no aplicación de ningún tipo de inteligencia: los snippets que el buscador destaca en respuesta a ciertas búsquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar precisamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de manera prominente teorías conspiranoicas ante búsquedas como “planea Obama un golpe de estado”, o destaque respuestas planteadas como broma por Monty Python como si fueran una verdadera explicación de por qué razón los coches de bomberos son rojos es algo que deja a la compañía en muy mal lugar, sobre todo después de que su director general, Sundar Pichai, destacase en repetidas ocasiones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el problema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno detrás de otros los diez resultados de una página de resultados o SERP (Search Engine Results Page), sino que tiene que escoger una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el aparato escoge sistemáticamente la respuesta destacada por Google en su snippet y el mecanismo por el que se obtiene ese snippet carece de la inteligencia suficiente para discernir cuándo un resultado proviene de un sitio fiable o de una página absurdamente tendenciosa, el resultado es, en muchas ocasiones, que formulas una pregunta a tu Google Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo completamente la credibilidad de la compañía y de su tecnología – más aún teniendo en cuenta que los usuarios de Google Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de identificar (y de ofenderse) con este tipo de respuestas.

Que Google, compañía con dieciocho años de experiencia en la búsqueda, caiga en un error tan de base como que sus resultados no estén a la altura como para ser leídos por una máquina y suministrados como respuesta única a una pregunta, debería llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el problema de credibilidad que puede llegar a representar si no se corrige de manera rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya más allá de la simple supervisión manual caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los datos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson empieza a decir tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con páginas sensacionalistas o tendenciosas de ínfima calidad, tus respuestas no valdrán nada.

 

Powered by WPeMatico

Política, noticias y redes sociales

How the new digital grassroots is reshaping politics - The EconomistJames Badcock me cita hablando sobre la interacción entre redes sociales, noticias y política en su artículo en The Economist titulado How the new digital grassroots is reshaping politics, en el que se plantea las posibles formas de lidiar con las noticias falsas en un escenario en el que un porcentaje cada vez mayor de ciudadanos se informa en las redes sociales, lee noticias, las comparte y, en cierta medida, cambia de opinión sobre diversos temas en función de lo que lee.

En palabras de Tim Cook, CEO de Apple, fake news is killing people’s minds, y son precisas respuestas que vayan desde la tecnología y la ley, hasta campañas educacionales masivas que puedan concienciar a los ciudadanos de todos los segmentos sociodemográficos sobre la importancia del problema de las fake news.

Facebook, la misma compañía que se preciaba de haber influenciado la primavera árabe, no puede ya seguir negando su responsabilidad. Un número creciente de norteamericanos la consideran el medio de comunicación en el que se informan de cada vez más cosas a pesar de los esfuerzos de la compañía por negarlo, y ven cómo esos nuevos hábitos de adquisición de información, que podrían servir para dar acceso a noticias más plurales y variadas, para enriquecer puntos de vista y ayudar al desarrollo del pensamiento crítico, se convierten en realidad en campañas planificadas de intoxicación colectiva apoyadas en las características del medio.

No, la respuesta no es simplemente esperar a que las compañías tecnológicas aparezcan con una varita mágica que elimine el problema, porque para solucionar ese problema van a hacer falta muchas cosas más. No es tan sencillo como decir “prohibimos las noticias falsas y echamos a los que las publican”, porque el problema tiene demasiados matices importantes que no pueden ser simplemente ignorados o minusvalorados. Va a ser necesario que desarrollemos nuestro sentido crítico y nos convirtamos en fact checkers a tiempo parcial, al tiempo que nos preparamos para una era en la que el activismo será más necesario que nunca.

 

Powered by WPeMatico

Las noticias falsas como reto tecnológico

Pope endorses Trump (FAKE)Mi columna en El Español de esta semana se titula “Noticias y redes sociales“, y vuelve a incidir sobre el tema de las noticias falsas diseminadas a través de redes sociales, tratando de plasmarlo como un reto que la tecnología tiene que solucionar, fundamentalmente tratando de reconstruir los mismos sistemas que existen en el mundo tradicional.

Las soluciones a problemas complejos no suelen ser sencillas. Pretender luchar contra las noticias falsas simplemente censurando su circulación choca con el hecho de que, a lo largo de muchas décadas de existencia de los medios de comunicación, las noticias falsas y sensacionalistas no han desaparecido, y confirman una industria que factura millones y tiene un público fiel. Sin embargo, en el mundo de la comunicación tradicional, a pesar de que existen decenas de medios sensacionalistas dedicados a inventarse conspiraciones, noticias falsas y rumores absurdos de todo tipo, la influencia de las noticias sensacionalistas no suele trasladarse a los medios considerados serios: las dos órbitas se encuentran razonablemente compartimentadas, lo que lleva a que quien consume basura, en general, sabe que lo está haciendo, y la información que aparece en ese circuito, por l general, no sale de él y limita así su influencia.

Ese es el sistema que, en la reinvención de las noticias a la luz de las redes sociales, falta por desarrollar: no se trata de intentar impedir la circulación de noticias falsas, porque tienen su público y ese público tiene derecho a consumirlas, pero sí de detectarlas, identificarlas y etiquetarlas como lo que son, de restringir su circulación por vías algorítmicas, y de evitar que tengan un incentivo económico directo excluyéndolas de los mecanismos de publicidad.

Prohibir que un tabloide sensacionalista como Daily Mail sea utilizado como fuente de referencia en Wikipedia es razonable dada la naturaleza de la publicación, una enciclopedia, y sin duda, no será el último medio que recibe tal “distinción”. Que Wikipedia, hace años denostada por algunos como una enciclopedia supuestamente no fiable, se haya consolidado como la mejor, más completa y más actualizada enciclopedia de todos los tiempos y pueda ahora convertirse en juez que toma decisiones y sanciona qué publicaciones pueden o no pueden utilizarse en sus referencias es un caso claro que demuestra que, sobre las bases de la red y los procesos sociales, pueden construirse mecanismos que superen claramente en generación de valor a los existentes en el mundo tradicional.

A la hora de reconstruir esos sistemas de referencia en las redes sociales, la tecnología va a resultar fundamental: pretender recurrir a editores humanos para etiquetar las noticias falsas y excluirlas no solo es imposible, sino que aporta potencialmente peligrosos elementos de relatividad. La idea parece tender hacia la combinación de sistemas que examinen los patrones de difusión de las noticias, con otros que incorporen el etiquetado de los usuarios, y con bases de datos que incorporen fuentes y noticias calificadas como no fiables. A partir de ahí, limitar la circulación de las noticias etiquetadas como falsas privándolas de acceso a algoritmos de recomendación automatizados, a sistemas de publicidad y a trending topics. Que leas una noticia falsa porque la hayan compartido contigo seguirá siendo perfectamente posible y formando parte de tu libertad individual, pero al menos debería ir convenientemente caracterizada como lo que es, como ocurre en el quiosco cuando vemos determinados medios.

El problema, de nuevo, no es sencillo. En el mundo tradicional, un medio alcanza la reputación de sensacionalista a lo largo de un tiempo de comportarse como tal. En la red, podemos crear un medio cada mañana, darle una apariencia convincente, y publicar lo que queramos inventarnos y convenga a nuestra agenda en tan solo unos pocos clics. En la red, el desarrollo de sistemas de fact-checking capaces de dar respuesta a este tipo de retos va a exigir la coordinación de abundantes recursos, y no va a ser sencillo, pero eso no quiere decir que no deba plantearse: para las redes sociales y buscadores, de hecho, se conforma como el próximo gran desafío. Ejercicios de colaboración como el que se está desarrollando en Francia sobre el que escribí hace unos días pueden aportar marcos interesantes y laboratorios sobre los que tratar de aislar y evaluar este tipo de cuestiones.

Sigue quedando mucho por hacer. Pero al menos, vamos centrando el problema.

 

Powered by WPeMatico

Con Francia en el horizonte…

Elections pre?sidentielles 2017 FranceCon las elecciones presidenciales francesas a la vuelta de la esquina, y dados los resultados de las reciente cita electoral norteamericana, todo apunta a que el país vecino se va a convertir en un auténtico laboratorio tecnológico en el que poner a prueba la influencia de factores como la divulgación de noticias falsas y su impacto en el proceso electoral.

Facebook acaba de anunciar el lanzamiento de un filtro para noticias falsas específico para Francia, al tiempo que se une a Google y a ocho grandes medios franceses para intentar poner en marcha herramientas de verificación de noticias. La idea es que herramientas como CrossCheck, desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos, puedan ser utilizadas en conjunción con bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; por Libération, en la que se compilan noticias positivamente identificadas como falsas; o por otros medios, con el fin de combinar esa información con reportes de usuarios y otro tipo de feedback, y reducir la difusión de esas noticias en los algoritmos de redes sociales y buscadores. Según algunos de los medios implicados, fue precisamente ese compromiso de las empresas online como Facebook para reducir la circulación de noticias falsas en sus algoritmos de recomendación lo que les animó a participar en la iniciativa.

En los Estados Unidos, Facebook ha solicitado la colaboración de terceros como Snopes, PolitiFact o la herramienta de fact-checking de The Washington Post para, combinado con el feedback de los usuarios, tratar de limitar la difusión de ese tipo de noticias falsas y etiquetarlas como tales.

El problema de las noticias falsas en los entornos en red es, por un lado, la ausencia de referencias válidas para juzgar su credibilidad. Con el valor de las cabeceras periodísticas en plena crisis, muchos medios online han pasado a ocupar un lugar creciente en la dieta informativa de los ciudadanos, pero junto con medios que lo hacen muy bien y desarrollan un periodismo de nivel, surgen otros que se aprovechan de las escasas barreras de entrada del canal online para intoxicar, inventar o difundir noticias falsas vinculadas a agendas políticas concretas, con el agravante, además, de contar con incentivos generados por la propia difusión de esas noticias en redes sociales y buscadores. La exclusión de las páginas identificadas como de noticias falsas de los mecanismos de publicidad de Google y Facebook es un primer paso importante porque reduce el incentivo económico de generarlas, pero es tan solo un primer paso de muchos más que hay que dar. El estudio de los patrones d difusión de las noticias falsas, por ejemplo, es otra herramienta importante de cara a prevenir su circulación, y presumiblemente fue una de las razones principales que llevó a Facebook a adquirir CrowdTangle, una herramienta de analítica social, el pasado noviembre.

Por otro lado, las redes sociales juegan un papel de “cámara de eco” en las que los ciudadanos, llevados por los mecanismos sociales que les llevan a reunirse preferentemente con otras personas que piensan como ellos, sienten que todo su entorno refuerza sus creencias y las priva de los habituales frenos sociales, generando una radicalización que tiende a favorecer a opciones que, sin esos mecanismos, serían meramente marginales. El problema, lógicamente, es cómo frenar las noticias falsas sin convertirse en una especie de “árbitro de la verdad” que decide lo que es cierto y lo que es falso, una cuestión que ya le costó a Facebook múltiples críticas en ese sentido y una reunión de urgencia con políticos conservadores cuando algunos de sus editores afirmaron aplicar criterios con sesgo político a la hora de decidir qué noticias se convertían en trending y cuales no. Según muchos, fue precisamente el miedo a que se relacionase a Facebook con una red hostil a las ideas conservadoras lo que hizo que la compañía no hiciese suficiente a la hora de detener la difusión de noticias falsas en las pasadas elecciones norteamericanas.

¿Son realmente las redes sociales total o parcialmente responsables del resultado de las últimas elecciones norteamericanas? ¿Son los lectores que solo leen lo que quieren leer, lo que les hace sentir bien o lo que coincide con su visión del mundo? ¿Un efecto combinado de ambas cosas? Mientras algunas noticias son claramente falsas desde un punto de vista puramente factual, en muchos otros casos, los matices no son tan sencillos, además de mezclarse con recursos como la sátira o el humor que no deben ser, en principio, objeto de censura, pero que dificultan la tarea de identificación. Si los mecanismos basados en la actuación de editores humanos tienen el problema de la arbitrariedad, y los desarrollados a partir de algoritmos de inteligencia artificial son complejos y con posibilidades de fallar, la alternativa parece ser combinar varios mecanismos a modo de indicadores y optar por metodologías mixtas en las que se añadan al feedback y al etiquetado por los usuarios, y a los patrones de difusión que pongan bajo sospecha todo aquello que experimente una difusión especialmente rápida. Para nada un problema trivial. Y todo indica que las próximas elecciones francesas se disponen a ser, en muchos sentidos, un escenario para muchas pruebas relacionadas con este tema.

 

Powered by WPeMatico

Noticias falsas: aún queda mucho por hacer

IMAGE: cbies - 123RFLa lucha contra las noticias falsas, considerada ya una cuestión estratégica y fundamental por compañías como Google o Facebook, continúa con recientes anuncios como la eliminación de más de 200 publicaciones de su sistema de publicidad por parte del primero, o los cambios en el algoritmo de los trending topics por el segundo.

Mientras Google se afana en detectar publicaciones que habitualmente crean noticias falsas o bulos y cortarles las fuentes de financiación, un trabajo en el que ambas compañías llevan inmersos ya desde el pasado noviembre, Facebook, en pleno ojo del huracán por su supuesto papel decisivo en las últimas elecciones presidenciales, trata además de redefinir sus trending topics añadiéndoles la fuente, mejorando el sistema de determinación de tendencias, y homogeneizándolos por regiones en lugar de personalizarlos como hacía hasta el momento. Las medidas forman parte de una batería de ideas que la compañía evalúa tras facilitar el acceso de expertos a sus datos para que desarrollen sistemas de control – algunos ya objeto de patente – y recibir ideas de estudiantes en los hackathones organizados en universidades.

El problema es indudablemente grave: según un reciente estudio de Stanford, la gran mayoría de los estudiantes no saben discernir cuando una noticia es falsa o esponsorizada: la absurda idea de que eran “nativos digitales” y que tenían de alguna manera internet metido en su pool genético ha llevado a muchos padres y educadores a una dejación de responsabilidad en este tipo de cuestiones, convirtiéndolos en una generación que carece de referencias válidas y de sentido crítico. La tardanza de Facebook en hacer frente a este problema, debida fundamentalmente al miedo a que se relacionase con un sesgo en contra de ideologías conservadoras, llevó a que el ahora presidente Donald Trump pusiese en marcha una auténtica maquinaria de fabricación y dispersión de noticias falsas a varios de cuyos actores principales ha recompensado después con puestos en su gabinete, en una maniobra que según muchos observadores, pudo condicionar en gran medida el resultado de las elecciones y que, en caso de no tomar medidas, podría empeorar en el futuro tras el acceso a las urnas de una generación todavía más ingenua y confiada que las anteriores.

Los creadores de noticias falsas, por otro lado, también utilizan la tecnología para mejorar su producto: una aplicación basada en inteligencia artificial es capaz de recrear gestos y vocalizaciones sobre el vídeo de una persona, generando falsificaciones capaces de poner cualquier cosa en boca de cualquier personaje con resultados entre aterradoramente buenos o sencillamente mediocres, pero indudablemente capaces de llevar a engaño a muchos usuarios. Mientras compañías como Apple o Snapchat afirman no tener problemas con las noticias falsas debido a un control mucho mayor sobre las publicaciones que admiten en su red, ecosistemas más abiertos como Google o Facebook se ven obligados a trabajar con una amplia gama de señales que incluyen desde los patrones de popularización de las noticias hasta los reportes de los propios usuarios, en un esfuerzo por aislar ese tipo de noticias y castigar a sus autores mientras tratan de no poner en riesgo la pluralidad o de cerrar el paso a quienes cuestionen el pensamiento mayoritario.

El problema es indudablemente complejo. Si tras la primera campaña de Barack Obama vimos una proliferación de supuestos expertos en social media afirmando que podían ayudar a cualquier político a mejorar sus resultados, tras la campaña de Trump nos arriesgamos a ver aprendices de Steve Bannon, editor del panfleto ultraderechista Breitbart News, aspirando a puestos de asesoría estratégica en gabinetes de medio mundo. Nada que pueda o deba ser tomado a la ligera… y ahora, menos que nunca. Estamos indudablemente ante uno de los problemas más preocupantes y complejos de nuestros tiempos, y todavía queda mucho por hacer.

 

Powered by WPeMatico

Noticias falsas, redes sociales y censura

Facebook censoredEn las últimas semanas, fundamentalmente al hilo del resultado de las recientes elecciones norteamericanas, se ha escrito bastante sobre la cuestión de las noticias falsas, su divulgación masiva en redes como Facebook, y la necesidad de desarrollar sistemas de control. En mi caso, dediqué más o menos directamente al tema entradas como “Facebook en su momento de la verdad“, “El problema de la tecnología“, “Analizando la campaña de Trump y el efecto Facebook“, “El pensamiento crítico y su desarrollo” y “La peligrosa química de la web“, algunas de las cuales fueron recogidas o citadas en diversos medios.

Hoy, una columna de J. L. García Guerrero en La Información, titulada “¿Censura? ¿Quién decide si una noticia es falsa o no?“, me cita de una manera que me ha parecido que no deja completamente clara mi postura al respecto, y que de hecho, podría llevar a pensar que abogo porque las redes sociales lleven a cabo, de manera directa o indirecta, algún tipo de censura.

No es el caso. Siempre, de manera sistemática y categórica, he estado en contra de cualquier tipo de censura entendida como tal. Mis comentarios sobre la difusión de las noticias falsas y su posible influencia en las personas no pretendían abogar por una censura de contenidos en Facebook, sino por el desarrollo de sistemas de cualificación del contenido muy similares a los que motores de búsqueda como Google llevan años desarrollando. La censura de determinadas noticias o publicaciones por parte de Facebook haría entre poco y nada por la salud de la web: toda acción conlleva una reacción, y si las publicaciones dedicadas al sensacionalismo y a la creación sistemática de noticias falsas fuesen censuradas, es muy posible que su popularidad y difusión, en lugar de resentirse, pudiese incluso llegar a crecer a través de otros canales. Pocas cosas excitan más la conspiranoia y el deseo de acceder a información que el hecho de censurarla.

Lo que hay que intentar, como ya comenté en un artículo anterior, es intentar promover el desarrollo del pensamiento crítico, dotando a aquellos que pretendan analizar y cualificar la información que consumen de cuantas más herramientas, mejor. Conviene leer, en ese sentido, el fantástico artículo que Hossein Derakhshan, blogger iraní que paso seis años en la cárcel en Teherán, publica hoy en MIT Tech Review, titulado Social media is killing discourse because it’s too much like TV: la evolución de la web, vista por una persona que sufrió un aislamiento total de la misma durante seis años, ha sido la de pasar de ser un medio fundamentalmente descentralizado, basado en el texto y en el consumo consciente, analítico y con tendencia a suministrar abundantes enlaces en los que profundizar en lo leído, a convertirse en un medio centralizado en unos pocos canales, y con abundancia de imágenes o vídeos que no facilitan información adicional, que son consumidos mucho más como la televisión, sin posibilidad inmediata o sencilla de cualificación o verificación.

El fenómeno como tal no es parte de ningún tipo de conspiración, y puede que represente incluso una evolución natural debida a las características de las sociedades humanas, que tienden a la economía de los recursos y a centrarse en aquellas soluciones que ven más sencillas. El paso de la simplificación al simplismo es enormemente sencillo y resbaladizo, y eso es algo que hemos visto en muchos medios anteriormente: la existencia y relativa popularidad de publicaciones sensacionalistas y tabloides en todos los formatos es buena prueba de ello. Y por supuesto, no se trata de censurar y prohibir a la gente que lea The Sun, Bild o medios similares si desean hacerlo. Se trata, simplemente, de que sepan lo que leen.

En la web de hoy, Google es capaz de eliminar todos los años nada menos que mil millones de enlaces por peticiones de titulares de derechos de autor. La tecnología para llevar a cabo ese proceso existe, y es indudablemente eficiente, hasta el punto que diseñar un sistema que hiciese algo similar con las fake news sería, si bien no trivial, no completamente descabellado o imposible. Sin embargo, como el propio ejemplo evidencia, es bien sabido que el consumo de contenidos considerados irregulares no ha descendido por el hecho de que Google los haya hecho desaparecer de su índice, sino por la aparición de ofertas regulares – llámense Netflix, Spotify, Apple Music o como se quiera – de acceso sencillo, relativamente barato y atractivo, que han llevado al mercado a situarlas entre sus preferencias. Hoy, un usuario que pretende consumir contenido audiovisual descargado irregularmente puede hacerlo con prácticamente la misma sencillez que podía hacerlo en 2005, pero tiende a dejar de hacerlo, y no porque lo amenacen con la cárcel o con la ira de los dioses, sino simplemente porque dispone de formas más sencillas, atractivas y convincentes de obtener ese contenido.

Del mismo modo, deberíamos pensar en sistemas que no se dediquen a eliminar las noticias falsas en modo censura, pero sí que las etiqueten y las traten adecuadamente, con todos los matices que diferencian a quienes utilizan el humor en todas sus vertientes, a quienes recurren a la sátira o a quienes simplemente difaman o se inventan y divulgan hechos que no responden a la realidad. Si un medio o una persona se dedica a producir sistemáticamente noticias falsas, debería ver sus noticias etiquetadas como tal mediante sistemas que combinen lo social, el machine learning y la supervisión humana, debería no tener acceso a los mecanismos publicitarios que funcionan como incentivo de la actividad (del mismo modo que impedimos el acceso a la publicidad a otro tipo de contenidos considerados nocivos, como los productos milagro, la pornografía, etc.) y debería ser penalizada en los algoritmos de recomendación, para evitar el efecto “cámara de espejos” que refuerza su posible influencia. ¿Es eso censura? Obviamente, no es un sistema ecuánime que trata a todas las noticias por igual, pero… ¿debemos realmente tratar a todas las noticias por igual?

 

Powered by WPeMatico

La peligrosa química de la web

IMAGE: Alexander Parenkin - 123RF

Mi columna de esta semana en El Español se titula “Mezclas peligrosas“, y hace referencia a la compleja química de la web, en la que una serie de componentes que estaban destinados a ser individualmente beneficiosos terminan generando una reacción explosiva.

¿Cuáles son los componentes que han convertido a la web en un peligroso lugar que favorece la circulación de noticias falsas, bulos virales y desinformación? En primer lugar, claramente, la caída de las barreras de entrada a la publicación. Un fenómeno que conozco como pocos, que posibilita que pueda estar aquí cada día compartiendo un texto con vosotros, cuando antes tenía que enviarlo a un medio de comunicación, confiar en que pasase un cierto filtro más o menos riguroso, esperar la confirmación de que “hubiese papel” (siempre me hizo gracia eso de “esta semana no salimos porque no hay papel”, referido al balance entre contenido y publicidad… cuando eso pasaba, me daban ganas de enviar a la redacción un poco de papel… higiénico 🙂 y finalmente, verlo salir impreso unos días después. Frente a aquello, la actual situación de “ser mi propio editor” y darle a “Publicar” cuando me da la real gana me parece indudablemente mejor. Que las barreras de entrada a la edición y publicación caigan parece en principio una buena noticia, da voz a más personas, y democratiza la sociedad… hasta que llega un espabilado y decide que, como publicar es fácil, está en su supuesto derecho de publicar cualquier cosa.

El segundo componente es el sistema de incentivos que genera la publicidad. La publicidad en internet parece, sin duda, una buena idea: el medio permite segmentaciones más precisas, permite teóricamente dar a cada uno los mensajes que más le interesan o que más probabilidades tiene de estar buscando, ofrece un feedback más rápido y permite que muchos encuentren una forma de financiar sus publicaciones. Y todos felices… si fuese simplemente así. Sin embargo, la copia de modelos de otros canales lleva al abuso, al exceso de formatos intrusivos, y sobre todo, a primar cantidad frente a calidad, lo que lleva a poner la métrica de las páginas vistas por encima de todo, incluido el sentido común. Hay medios – no pocos – que recargan automáticamente sus páginas cada pocos minutos para añadir una página vista, como los hay que harían cualquier cosa por un clic, hasta prostituir completamente sus titulares en esa aberración denominada clickbait. Cuantas más páginas vistas tienes, mejor eres y más dinero ganas.

En tercer lugar, unas redes sociales que nos permiten conectarnos con nuestros amigos y con las personas con las que compartimos ideas y aficiones. Aparentemente, un gran invento. Hasta que comprobamos que aparecen personas para las que esas redes sociales se convierten en el prisma por el que miran el mundo, que las interpretan como ese sitio en el que son tanto mejores cuantos más “me gusta” reciben y más followers tienen, en una especie de persecución de la “micro-fama” que lleva a cometer excesos, a compartir cosas que, muy posiblemente, no deberían ser compartidas.

Finalmente, el desarrollo de algoritmos de recomendación que escogen por nosotros lo que queremos ver, utilizando componentes como lo que hemos visto anteriormente, lo que han visto nuestros amigos, o lo que nos ha generado una reacción. Aparentemente, algo positivo que trabaja por nosotros y nos permite escoger lo que queremos leer, en medio de un océano inabarcable de información. Pero de nuevo, si combinamos esto con el hecho de que tendemos a tener amigos que piensan relativamente parecido a nosotros, el resultado es la famosa filter bubble de Eli Pariser, una auténtica “cámara de los espejos” en la que nuestro pensamiento se ve amplificado, corroborado y multiplicado infinitas veces por el de otros, y nos lleva a sentirnos validados, a creer que todo el mundo piensa como nosotros, a pensar que el resto no lo dice por aquello de “la corrección política”, y a que un racista, machista, ultra e impresentable tenga ganas de echarse a la calle a vapulear a la primera inmigrante con la que se cruce. O a echarse a la urna y votar por el primer candidato que cree que representa unas ideas que ni siquiera deberían estar permitidas en sociedad, porque van en contra no solo de la Constitución, sino del sentido común.

Es la “tabloidización” de la web, o según algunos, la web como reflejo de la sociedad. Y por supuesto, la solución no está en considerar culpable a la web ni en pretender absurdamente “abolirla”, sino en regular la mezcla de esos componentes, facilitar que se usen, pero evitar que se abusen. Algo para nada sencillo, un camino indudablemente tortuoso que muchos podrán pretender utilizar para convertirse en censores, donde pagarán justos por pecadores, en donde se confundirán factorías coordinadas de  fake news con sátiras o parodias perfectamente aceptables, donde habrá que tener muy en cuenta matices de todo tipo. Pero que sea complejo no quiere decir que no haya que hacerlo o que se pueda nadie escaquear de su responsabilidad. Si construyes un canal que convierte aparentemente en verdad todo aquello que tiene muchos Likes, es obvio que vas, más tarde o más temprano, a necesitar algún tipo de instrumento de control. Crearlo no será fácil, pero si no lo haces, el resultado, muy posiblemente, no te gustará, y tu contribución a la sociedad no habrá sido precisamente positiva. 

 

Powered by WPeMatico