Category Archives: fake

Auto Added by WPeMatico

Identificando patrones de difusión viral

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico

Facebook se destaca frente a Google en la lucha contra las noticias falsas

Facebook disputed news

Facebook pone en marcha su mecanismo para etiquetar las noticias disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una serie de principios de funcionamiento. El movimiento de Facebook coincide precisamente con el momento en que Google empieza a recibir fuertes críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el más mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información supuestamente fiable y considerándolos como respuestas válidas.

El mecanismo empleado por Facebook parece claro: recurrir a una serie de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la posibilidad de que el mecanismo no sea suficientemente rápido, y que para el momento en que los equipos de fact checking hayan podido llevar a cabo sus comprobaciones con rigor, la difusión ya se haya llevado a cabo y el daño, en gran medida, ya esté hecho. A su favor, la posibilidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del número de veces que las noticias que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan aprender a etiquetar esas noticias no tanto en términos de la noticia en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

Fake Obama coupEn el caso de Google, el problema fundamental parece partir precisamente de la no aplicación de ningún tipo de inteligencia: los snippets que el buscador destaca en respuesta a ciertas búsquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar precisamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de manera prominente teorías conspiranoicas ante búsquedas como “planea Obama un golpe de estado”, o destaque respuestas planteadas como broma por Monty Python como si fueran una verdadera explicación de por qué razón los coches de bomberos son rojos es algo que deja a la compañía en muy mal lugar, sobre todo después de que su director general, Sundar Pichai, destacase en repetidas ocasiones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el problema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno detrás de otros los diez resultados de una página de resultados o SERP (Search Engine Results Page), sino que tiene que escoger una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el aparato escoge sistemáticamente la respuesta destacada por Google en su snippet y el mecanismo por el que se obtiene ese snippet carece de la inteligencia suficiente para discernir cuándo un resultado proviene de un sitio fiable o de una página absurdamente tendenciosa, el resultado es, en muchas ocasiones, que formulas una pregunta a tu Google Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo completamente la credibilidad de la compañía y de su tecnología – más aún teniendo en cuenta que los usuarios de Google Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de identificar (y de ofenderse) con este tipo de respuestas.

Que Google, compañía con dieciocho años de experiencia en la búsqueda, caiga en un error tan de base como que sus resultados no estén a la altura como para ser leídos por una máquina y suministrados como respuesta única a una pregunta, debería llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el problema de credibilidad que puede llegar a representar si no se corrige de manera rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya más allá de la simple supervisión manual caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los datos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson empieza a decir tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con páginas sensacionalistas o tendenciosas de ínfima calidad, tus respuestas no valdrán nada.

 

Powered by WPeMatico

Política, noticias y redes sociales

How the new digital grassroots is reshaping politics - The EconomistJames Badcock me cita hablando sobre la interacción entre redes sociales, noticias y política en su artículo en The Economist titulado How the new digital grassroots is reshaping politics, en el que se plantea las posibles formas de lidiar con las noticias falsas en un escenario en el que un porcentaje cada vez mayor de ciudadanos se informa en las redes sociales, lee noticias, las comparte y, en cierta medida, cambia de opinión sobre diversos temas en función de lo que lee.

En palabras de Tim Cook, CEO de Apple, fake news is killing people’s minds, y son precisas respuestas que vayan desde la tecnología y la ley, hasta campañas educacionales masivas que puedan concienciar a los ciudadanos de todos los segmentos sociodemográficos sobre la importancia del problema de las fake news.

Facebook, la misma compañía que se preciaba de haber influenciado la primavera árabe, no puede ya seguir negando su responsabilidad. Un número creciente de norteamericanos la consideran el medio de comunicación en el que se informan de cada vez más cosas a pesar de los esfuerzos de la compañía por negarlo, y ven cómo esos nuevos hábitos de adquisición de información, que podrían servir para dar acceso a noticias más plurales y variadas, para enriquecer puntos de vista y ayudar al desarrollo del pensamiento crítico, se convierten en realidad en campañas planificadas de intoxicación colectiva apoyadas en las características del medio.

No, la respuesta no es simplemente esperar a que las compañías tecnológicas aparezcan con una varita mágica que elimine el problema, porque para solucionar ese problema van a hacer falta muchas cosas más. No es tan sencillo como decir “prohibimos las noticias falsas y echamos a los que las publican”, porque el problema tiene demasiados matices importantes que no pueden ser simplemente ignorados o minusvalorados. Va a ser necesario que desarrollemos nuestro sentido crítico y nos convirtamos en fact checkers a tiempo parcial, al tiempo que nos preparamos para una era en la que el activismo será más necesario que nunca.

 

Powered by WPeMatico

Las noticias falsas como reto tecnológico

Pope endorses Trump (FAKE)Mi columna en El Español de esta semana se titula “Noticias y redes sociales“, y vuelve a incidir sobre el tema de las noticias falsas diseminadas a través de redes sociales, tratando de plasmarlo como un reto que la tecnología tiene que solucionar, fundamentalmente tratando de reconstruir los mismos sistemas que existen en el mundo tradicional.

Las soluciones a problemas complejos no suelen ser sencillas. Pretender luchar contra las noticias falsas simplemente censurando su circulación choca con el hecho de que, a lo largo de muchas décadas de existencia de los medios de comunicación, las noticias falsas y sensacionalistas no han desaparecido, y confirman una industria que factura millones y tiene un público fiel. Sin embargo, en el mundo de la comunicación tradicional, a pesar de que existen decenas de medios sensacionalistas dedicados a inventarse conspiraciones, noticias falsas y rumores absurdos de todo tipo, la influencia de las noticias sensacionalistas no suele trasladarse a los medios considerados serios: las dos órbitas se encuentran razonablemente compartimentadas, lo que lleva a que quien consume basura, en general, sabe que lo está haciendo, y la información que aparece en ese circuito, por l general, no sale de él y limita así su influencia.

Ese es el sistema que, en la reinvención de las noticias a la luz de las redes sociales, falta por desarrollar: no se trata de intentar impedir la circulación de noticias falsas, porque tienen su público y ese público tiene derecho a consumirlas, pero sí de detectarlas, identificarlas y etiquetarlas como lo que son, de restringir su circulación por vías algorítmicas, y de evitar que tengan un incentivo económico directo excluyéndolas de los mecanismos de publicidad.

Prohibir que un tabloide sensacionalista como Daily Mail sea utilizado como fuente de referencia en Wikipedia es razonable dada la naturaleza de la publicación, una enciclopedia, y sin duda, no será el último medio que recibe tal “distinción”. Que Wikipedia, hace años denostada por algunos como una enciclopedia supuestamente no fiable, se haya consolidado como la mejor, más completa y más actualizada enciclopedia de todos los tiempos y pueda ahora convertirse en juez que toma decisiones y sanciona qué publicaciones pueden o no pueden utilizarse en sus referencias es un caso claro que demuestra que, sobre las bases de la red y los procesos sociales, pueden construirse mecanismos que superen claramente en generación de valor a los existentes en el mundo tradicional.

A la hora de reconstruir esos sistemas de referencia en las redes sociales, la tecnología va a resultar fundamental: pretender recurrir a editores humanos para etiquetar las noticias falsas y excluirlas no solo es imposible, sino que aporta potencialmente peligrosos elementos de relatividad. La idea parece tender hacia la combinación de sistemas que examinen los patrones de difusión de las noticias, con otros que incorporen el etiquetado de los usuarios, y con bases de datos que incorporen fuentes y noticias calificadas como no fiables. A partir de ahí, limitar la circulación de las noticias etiquetadas como falsas privándolas de acceso a algoritmos de recomendación automatizados, a sistemas de publicidad y a trending topics. Que leas una noticia falsa porque la hayan compartido contigo seguirá siendo perfectamente posible y formando parte de tu libertad individual, pero al menos debería ir convenientemente caracterizada como lo que es, como ocurre en el quiosco cuando vemos determinados medios.

El problema, de nuevo, no es sencillo. En el mundo tradicional, un medio alcanza la reputación de sensacionalista a lo largo de un tiempo de comportarse como tal. En la red, podemos crear un medio cada mañana, darle una apariencia convincente, y publicar lo que queramos inventarnos y convenga a nuestra agenda en tan solo unos pocos clics. En la red, el desarrollo de sistemas de fact-checking capaces de dar respuesta a este tipo de retos va a exigir la coordinación de abundantes recursos, y no va a ser sencillo, pero eso no quiere decir que no deba plantearse: para las redes sociales y buscadores, de hecho, se conforma como el próximo gran desafío. Ejercicios de colaboración como el que se está desarrollando en Francia sobre el que escribí hace unos días pueden aportar marcos interesantes y laboratorios sobre los que tratar de aislar y evaluar este tipo de cuestiones.

Sigue quedando mucho por hacer. Pero al menos, vamos centrando el problema.

 

Powered by WPeMatico

Con Francia en el horizonte…

Elections pre?sidentielles 2017 FranceCon las elecciones presidenciales francesas a la vuelta de la esquina, y dados los resultados de las reciente cita electoral norteamericana, todo apunta a que el país vecino se va a convertir en un auténtico laboratorio tecnológico en el que poner a prueba la influencia de factores como la divulgación de noticias falsas y su impacto en el proceso electoral.

Facebook acaba de anunciar el lanzamiento de un filtro para noticias falsas específico para Francia, al tiempo que se une a Google y a ocho grandes medios franceses para intentar poner en marcha herramientas de verificación de noticias. La idea es que herramientas como CrossCheck, desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos, puedan ser utilizadas en conjunción con bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; por Libération, en la que se compilan noticias positivamente identificadas como falsas; o por otros medios, con el fin de combinar esa información con reportes de usuarios y otro tipo de feedback, y reducir la difusión de esas noticias en los algoritmos de redes sociales y buscadores. Según algunos de los medios implicados, fue precisamente ese compromiso de las empresas online como Facebook para reducir la circulación de noticias falsas en sus algoritmos de recomendación lo que les animó a participar en la iniciativa.

En los Estados Unidos, Facebook ha solicitado la colaboración de terceros como Snopes, PolitiFact o la herramienta de fact-checking de The Washington Post para, combinado con el feedback de los usuarios, tratar de limitar la difusión de ese tipo de noticias falsas y etiquetarlas como tales.

El problema de las noticias falsas en los entornos en red es, por un lado, la ausencia de referencias válidas para juzgar su credibilidad. Con el valor de las cabeceras periodísticas en plena crisis, muchos medios online han pasado a ocupar un lugar creciente en la dieta informativa de los ciudadanos, pero junto con medios que lo hacen muy bien y desarrollan un periodismo de nivel, surgen otros que se aprovechan de las escasas barreras de entrada del canal online para intoxicar, inventar o difundir noticias falsas vinculadas a agendas políticas concretas, con el agravante, además, de contar con incentivos generados por la propia difusión de esas noticias en redes sociales y buscadores. La exclusión de las páginas identificadas como de noticias falsas de los mecanismos de publicidad de Google y Facebook es un primer paso importante porque reduce el incentivo económico de generarlas, pero es tan solo un primer paso de muchos más que hay que dar. El estudio de los patrones d difusión de las noticias falsas, por ejemplo, es otra herramienta importante de cara a prevenir su circulación, y presumiblemente fue una de las razones principales que llevó a Facebook a adquirir CrowdTangle, una herramienta de analítica social, el pasado noviembre.

Por otro lado, las redes sociales juegan un papel de “cámara de eco” en las que los ciudadanos, llevados por los mecanismos sociales que les llevan a reunirse preferentemente con otras personas que piensan como ellos, sienten que todo su entorno refuerza sus creencias y las priva de los habituales frenos sociales, generando una radicalización que tiende a favorecer a opciones que, sin esos mecanismos, serían meramente marginales. El problema, lógicamente, es cómo frenar las noticias falsas sin convertirse en una especie de “árbitro de la verdad” que decide lo que es cierto y lo que es falso, una cuestión que ya le costó a Facebook múltiples críticas en ese sentido y una reunión de urgencia con políticos conservadores cuando algunos de sus editores afirmaron aplicar criterios con sesgo político a la hora de decidir qué noticias se convertían en trending y cuales no. Según muchos, fue precisamente el miedo a que se relacionase a Facebook con una red hostil a las ideas conservadoras lo que hizo que la compañía no hiciese suficiente a la hora de detener la difusión de noticias falsas en las pasadas elecciones norteamericanas.

¿Son realmente las redes sociales total o parcialmente responsables del resultado de las últimas elecciones norteamericanas? ¿Son los lectores que solo leen lo que quieren leer, lo que les hace sentir bien o lo que coincide con su visión del mundo? ¿Un efecto combinado de ambas cosas? Mientras algunas noticias son claramente falsas desde un punto de vista puramente factual, en muchos otros casos, los matices no son tan sencillos, además de mezclarse con recursos como la sátira o el humor que no deben ser, en principio, objeto de censura, pero que dificultan la tarea de identificación. Si los mecanismos basados en la actuación de editores humanos tienen el problema de la arbitrariedad, y los desarrollados a partir de algoritmos de inteligencia artificial son complejos y con posibilidades de fallar, la alternativa parece ser combinar varios mecanismos a modo de indicadores y optar por metodologías mixtas en las que se añadan al feedback y al etiquetado por los usuarios, y a los patrones de difusión que pongan bajo sospecha todo aquello que experimente una difusión especialmente rápida. Para nada un problema trivial. Y todo indica que las próximas elecciones francesas se disponen a ser, en muchos sentidos, un escenario para muchas pruebas relacionadas con este tema.

 

Powered by WPeMatico

Noticias falsas: aún queda mucho por hacer

IMAGE: cbies - 123RFLa lucha contra las noticias falsas, considerada ya una cuestión estratégica y fundamental por compañías como Google o Facebook, continúa con recientes anuncios como la eliminación de más de 200 publicaciones de su sistema de publicidad por parte del primero, o los cambios en el algoritmo de los trending topics por el segundo.

Mientras Google se afana en detectar publicaciones que habitualmente crean noticias falsas o bulos y cortarles las fuentes de financiación, un trabajo en el que ambas compañías llevan inmersos ya desde el pasado noviembre, Facebook, en pleno ojo del huracán por su supuesto papel decisivo en las últimas elecciones presidenciales, trata además de redefinir sus trending topics añadiéndoles la fuente, mejorando el sistema de determinación de tendencias, y homogeneizándolos por regiones en lugar de personalizarlos como hacía hasta el momento. Las medidas forman parte de una batería de ideas que la compañía evalúa tras facilitar el acceso de expertos a sus datos para que desarrollen sistemas de control – algunos ya objeto de patente – y recibir ideas de estudiantes en los hackathones organizados en universidades.

El problema es indudablemente grave: según un reciente estudio de Stanford, la gran mayoría de los estudiantes no saben discernir cuando una noticia es falsa o esponsorizada: la absurda idea de que eran “nativos digitales” y que tenían de alguna manera internet metido en su pool genético ha llevado a muchos padres y educadores a una dejación de responsabilidad en este tipo de cuestiones, convirtiéndolos en una generación que carece de referencias válidas y de sentido crítico. La tardanza de Facebook en hacer frente a este problema, debida fundamentalmente al miedo a que se relacionase con un sesgo en contra de ideologías conservadoras, llevó a que el ahora presidente Donald Trump pusiese en marcha una auténtica maquinaria de fabricación y dispersión de noticias falsas a varios de cuyos actores principales ha recompensado después con puestos en su gabinete, en una maniobra que según muchos observadores, pudo condicionar en gran medida el resultado de las elecciones y que, en caso de no tomar medidas, podría empeorar en el futuro tras el acceso a las urnas de una generación todavía más ingenua y confiada que las anteriores.

Los creadores de noticias falsas, por otro lado, también utilizan la tecnología para mejorar su producto: una aplicación basada en inteligencia artificial es capaz de recrear gestos y vocalizaciones sobre el vídeo de una persona, generando falsificaciones capaces de poner cualquier cosa en boca de cualquier personaje con resultados entre aterradoramente buenos o sencillamente mediocres, pero indudablemente capaces de llevar a engaño a muchos usuarios. Mientras compañías como Apple o Snapchat afirman no tener problemas con las noticias falsas debido a un control mucho mayor sobre las publicaciones que admiten en su red, ecosistemas más abiertos como Google o Facebook se ven obligados a trabajar con una amplia gama de señales que incluyen desde los patrones de popularización de las noticias hasta los reportes de los propios usuarios, en un esfuerzo por aislar ese tipo de noticias y castigar a sus autores mientras tratan de no poner en riesgo la pluralidad o de cerrar el paso a quienes cuestionen el pensamiento mayoritario.

El problema es indudablemente complejo. Si tras la primera campaña de Barack Obama vimos una proliferación de supuestos expertos en social media afirmando que podían ayudar a cualquier político a mejorar sus resultados, tras la campaña de Trump nos arriesgamos a ver aprendices de Steve Bannon, editor del panfleto ultraderechista Breitbart News, aspirando a puestos de asesoría estratégica en gabinetes de medio mundo. Nada que pueda o deba ser tomado a la ligera… y ahora, menos que nunca. Estamos indudablemente ante uno de los problemas más preocupantes y complejos de nuestros tiempos, y todavía queda mucho por hacer.

 

Powered by WPeMatico

Noticias falsas, redes sociales y censura

Facebook censoredEn las últimas semanas, fundamentalmente al hilo del resultado de las recientes elecciones norteamericanas, se ha escrito bastante sobre la cuestión de las noticias falsas, su divulgación masiva en redes como Facebook, y la necesidad de desarrollar sistemas de control. En mi caso, dediqué más o menos directamente al tema entradas como “Facebook en su momento de la verdad“, “El problema de la tecnología“, “Analizando la campaña de Trump y el efecto Facebook“, “El pensamiento crítico y su desarrollo” y “La peligrosa química de la web“, algunas de las cuales fueron recogidas o citadas en diversos medios.

Hoy, una columna de J. L. García Guerrero en La Información, titulada “¿Censura? ¿Quién decide si una noticia es falsa o no?“, me cita de una manera que me ha parecido que no deja completamente clara mi postura al respecto, y que de hecho, podría llevar a pensar que abogo porque las redes sociales lleven a cabo, de manera directa o indirecta, algún tipo de censura.

No es el caso. Siempre, de manera sistemática y categórica, he estado en contra de cualquier tipo de censura entendida como tal. Mis comentarios sobre la difusión de las noticias falsas y su posible influencia en las personas no pretendían abogar por una censura de contenidos en Facebook, sino por el desarrollo de sistemas de cualificación del contenido muy similares a los que motores de búsqueda como Google llevan años desarrollando. La censura de determinadas noticias o publicaciones por parte de Facebook haría entre poco y nada por la salud de la web: toda acción conlleva una reacción, y si las publicaciones dedicadas al sensacionalismo y a la creación sistemática de noticias falsas fuesen censuradas, es muy posible que su popularidad y difusión, en lugar de resentirse, pudiese incluso llegar a crecer a través de otros canales. Pocas cosas excitan más la conspiranoia y el deseo de acceder a información que el hecho de censurarla.

Lo que hay que intentar, como ya comenté en un artículo anterior, es intentar promover el desarrollo del pensamiento crítico, dotando a aquellos que pretendan analizar y cualificar la información que consumen de cuantas más herramientas, mejor. Conviene leer, en ese sentido, el fantástico artículo que Hossein Derakhshan, blogger iraní que paso seis años en la cárcel en Teherán, publica hoy en MIT Tech Review, titulado Social media is killing discourse because it’s too much like TV: la evolución de la web, vista por una persona que sufrió un aislamiento total de la misma durante seis años, ha sido la de pasar de ser un medio fundamentalmente descentralizado, basado en el texto y en el consumo consciente, analítico y con tendencia a suministrar abundantes enlaces en los que profundizar en lo leído, a convertirse en un medio centralizado en unos pocos canales, y con abundancia de imágenes o vídeos que no facilitan información adicional, que son consumidos mucho más como la televisión, sin posibilidad inmediata o sencilla de cualificación o verificación.

El fenómeno como tal no es parte de ningún tipo de conspiración, y puede que represente incluso una evolución natural debida a las características de las sociedades humanas, que tienden a la economía de los recursos y a centrarse en aquellas soluciones que ven más sencillas. El paso de la simplificación al simplismo es enormemente sencillo y resbaladizo, y eso es algo que hemos visto en muchos medios anteriormente: la existencia y relativa popularidad de publicaciones sensacionalistas y tabloides en todos los formatos es buena prueba de ello. Y por supuesto, no se trata de censurar y prohibir a la gente que lea The Sun, Bild o medios similares si desean hacerlo. Se trata, simplemente, de que sepan lo que leen.

En la web de hoy, Google es capaz de eliminar todos los años nada menos que mil millones de enlaces por peticiones de titulares de derechos de autor. La tecnología para llevar a cabo ese proceso existe, y es indudablemente eficiente, hasta el punto que diseñar un sistema que hiciese algo similar con las fake news sería, si bien no trivial, no completamente descabellado o imposible. Sin embargo, como el propio ejemplo evidencia, es bien sabido que el consumo de contenidos considerados irregulares no ha descendido por el hecho de que Google los haya hecho desaparecer de su índice, sino por la aparición de ofertas regulares – llámense Netflix, Spotify, Apple Music o como se quiera – de acceso sencillo, relativamente barato y atractivo, que han llevado al mercado a situarlas entre sus preferencias. Hoy, un usuario que pretende consumir contenido audiovisual descargado irregularmente puede hacerlo con prácticamente la misma sencillez que podía hacerlo en 2005, pero tiende a dejar de hacerlo, y no porque lo amenacen con la cárcel o con la ira de los dioses, sino simplemente porque dispone de formas más sencillas, atractivas y convincentes de obtener ese contenido.

Del mismo modo, deberíamos pensar en sistemas que no se dediquen a eliminar las noticias falsas en modo censura, pero sí que las etiqueten y las traten adecuadamente, con todos los matices que diferencian a quienes utilizan el humor en todas sus vertientes, a quienes recurren a la sátira o a quienes simplemente difaman o se inventan y divulgan hechos que no responden a la realidad. Si un medio o una persona se dedica a producir sistemáticamente noticias falsas, debería ver sus noticias etiquetadas como tal mediante sistemas que combinen lo social, el machine learning y la supervisión humana, debería no tener acceso a los mecanismos publicitarios que funcionan como incentivo de la actividad (del mismo modo que impedimos el acceso a la publicidad a otro tipo de contenidos considerados nocivos, como los productos milagro, la pornografía, etc.) y debería ser penalizada en los algoritmos de recomendación, para evitar el efecto “cámara de espejos” que refuerza su posible influencia. ¿Es eso censura? Obviamente, no es un sistema ecuánime que trata a todas las noticias por igual, pero… ¿debemos realmente tratar a todas las noticias por igual?

 

Powered by WPeMatico

La peligrosa química de la web

IMAGE: Alexander Parenkin - 123RF

Mi columna de esta semana en El Español se titula “Mezclas peligrosas“, y hace referencia a la compleja química de la web, en la que una serie de componentes que estaban destinados a ser individualmente beneficiosos terminan generando una reacción explosiva.

¿Cuáles son los componentes que han convertido a la web en un peligroso lugar que favorece la circulación de noticias falsas, bulos virales y desinformación? En primer lugar, claramente, la caída de las barreras de entrada a la publicación. Un fenómeno que conozco como pocos, que posibilita que pueda estar aquí cada día compartiendo un texto con vosotros, cuando antes tenía que enviarlo a un medio de comunicación, confiar en que pasase un cierto filtro más o menos riguroso, esperar la confirmación de que “hubiese papel” (siempre me hizo gracia eso de “esta semana no salimos porque no hay papel”, referido al balance entre contenido y publicidad… cuando eso pasaba, me daban ganas de enviar a la redacción un poco de papel… higiénico 🙂 y finalmente, verlo salir impreso unos días después. Frente a aquello, la actual situación de “ser mi propio editor” y darle a “Publicar” cuando me da la real gana me parece indudablemente mejor. Que las barreras de entrada a la edición y publicación caigan parece en principio una buena noticia, da voz a más personas, y democratiza la sociedad… hasta que llega un espabilado y decide que, como publicar es fácil, está en su supuesto derecho de publicar cualquier cosa.

El segundo componente es el sistema de incentivos que genera la publicidad. La publicidad en internet parece, sin duda, una buena idea: el medio permite segmentaciones más precisas, permite teóricamente dar a cada uno los mensajes que más le interesan o que más probabilidades tiene de estar buscando, ofrece un feedback más rápido y permite que muchos encuentren una forma de financiar sus publicaciones. Y todos felices… si fuese simplemente así. Sin embargo, la copia de modelos de otros canales lleva al abuso, al exceso de formatos intrusivos, y sobre todo, a primar cantidad frente a calidad, lo que lleva a poner la métrica de las páginas vistas por encima de todo, incluido el sentido común. Hay medios – no pocos – que recargan automáticamente sus páginas cada pocos minutos para añadir una página vista, como los hay que harían cualquier cosa por un clic, hasta prostituir completamente sus titulares en esa aberración denominada clickbait. Cuantas más páginas vistas tienes, mejor eres y más dinero ganas.

En tercer lugar, unas redes sociales que nos permiten conectarnos con nuestros amigos y con las personas con las que compartimos ideas y aficiones. Aparentemente, un gran invento. Hasta que comprobamos que aparecen personas para las que esas redes sociales se convierten en el prisma por el que miran el mundo, que las interpretan como ese sitio en el que son tanto mejores cuantos más “me gusta” reciben y más followers tienen, en una especie de persecución de la “micro-fama” que lleva a cometer excesos, a compartir cosas que, muy posiblemente, no deberían ser compartidas.

Finalmente, el desarrollo de algoritmos de recomendación que escogen por nosotros lo que queremos ver, utilizando componentes como lo que hemos visto anteriormente, lo que han visto nuestros amigos, o lo que nos ha generado una reacción. Aparentemente, algo positivo que trabaja por nosotros y nos permite escoger lo que queremos leer, en medio de un océano inabarcable de información. Pero de nuevo, si combinamos esto con el hecho de que tendemos a tener amigos que piensan relativamente parecido a nosotros, el resultado es la famosa filter bubble de Eli Pariser, una auténtica “cámara de los espejos” en la que nuestro pensamiento se ve amplificado, corroborado y multiplicado infinitas veces por el de otros, y nos lleva a sentirnos validados, a creer que todo el mundo piensa como nosotros, a pensar que el resto no lo dice por aquello de “la corrección política”, y a que un racista, machista, ultra e impresentable tenga ganas de echarse a la calle a vapulear a la primera inmigrante con la que se cruce. O a echarse a la urna y votar por el primer candidato que cree que representa unas ideas que ni siquiera deberían estar permitidas en sociedad, porque van en contra no solo de la Constitución, sino del sentido común.

Es la “tabloidización” de la web, o según algunos, la web como reflejo de la sociedad. Y por supuesto, la solución no está en considerar culpable a la web ni en pretender absurdamente “abolirla”, sino en regular la mezcla de esos componentes, facilitar que se usen, pero evitar que se abusen. Algo para nada sencillo, un camino indudablemente tortuoso que muchos podrán pretender utilizar para convertirse en censores, donde pagarán justos por pecadores, en donde se confundirán factorías coordinadas de  fake news con sátiras o parodias perfectamente aceptables, donde habrá que tener muy en cuenta matices de todo tipo. Pero que sea complejo no quiere decir que no haya que hacerlo o que se pueda nadie escaquear de su responsabilidad. Si construyes un canal que convierte aparentemente en verdad todo aquello que tiene muchos Likes, es obvio que vas, más tarde o más temprano, a necesitar algún tipo de instrumento de control. Crearlo no será fácil, pero si no lo haces, el resultado, muy posiblemente, no te gustará, y tu contribución a la sociedad no habrá sido precisamente positiva. 

 

Powered by WPeMatico

El pensamiento crítico y su desarrollo

IMAGE: Tang90246 - 123RF

Al hilo de toda la polémica sobre el peso que la difusión de las fake news o noticias falsas han tenido sobre el resultado de las últimas elecciones norteamericanas, el Wall Street Journal apunta a uno de los principales problemas de la educación actual: un estudio de la Universidad de Stanford que viene a demostrar sobre una amplia base estadística que la mayoría de los jóvenes no son capaces de diferenciar noticias claramente falsas de otras verdaderas, y ni siquiera son capaces de discernir cuando un artículo corresponde a contenido esponsorizado, ni siquiera cuando está etiquetado como tal.

Una de las grandes propiedades de la red es, indudablemente, facilitar el acceso a la información. Precisamente por ello, el pensamiento y el juicio crítico adquieren una importancia cada vez mayor, y se constituyen como una parte fundamental de la competencia digital de las personas en todos los aspectos de la vida. Sin embargo, esta necesidad de desarrollo del pensamiento crítico se encuentra, de manera notoria, ausente en nuestros esquemas y modelos educativos. Entender lo que la red nos devuelve, ser capaz de adscribir credibilidad en función de la fuente o de las características de la información, tener el escepticismo suficiente como para entender que “grandes conclusiones demandan grandes pruebas” o para tener capacidad de llevar a cabo una mínima comprobación o fact checking son habilidades que antes parecían pertenecer al ámbito de un periodismo en el que la sociedad, de manera justificada o no, depositaba su confianza, pero que cada día más resultan fundamentales en la formación de la persona y en la adquisición de cultura.

Los resultados del estudio son descorazonadores, y lo son a todos los niveles: cualquier esperanza de que los más jóvenes fuesen mínimamente más avispados a la hora de no quedarse sistemáticamente con el primer resultado de una búsqueda o no compartir algo sin tener ciertas garantías de su veracidad es totalmente vana, y demuestra, como ya hemos comentado en numerosas ocasiones, que aquellos supuestos “nativos digitales” no existen en modo alguno. Si cabe, los jóvenes son incluso más confiados y más fáciles de engañar que sus padres, a los que supuestamente correspondía educarlos en la importancia del pensamiento crítico. El colegio, por su parte, ha hecho dejación absoluta de responsabilidad en este tema, como podía esperarse de una institución que, salvo honrosas excepciones, ha preferido blindarse ante el avance tecnológico y prohibir a los niños que lleven su smartphone a clase, un dispositivo que representa una auténtica oportunidad por lo que tiene de ubicuo, pero que se excluye conscientemente “por si acaso los niños se distraen”. En plena era internet, seguimos educando a los niños con el erróneo concepto de que “la verdad es lo que dice el libro”, en lugar de aprovechar la oportunidad para desarrollar el escepticismo y el pensamiento crítico sobre la herramienta de acceso a la información más importante que hemos desarrollado en toda la historia de la humanidad.

Una sociedad que fabrica idiotas que se creen todo lo que leen en internet, que son incapaces de “sospechar” o de plantearse que un artículo es contenido esponsorizado y responde a unos intereses determinados, o que creen a pies juntillas titulares sensacionalistas que no resistirían una simple búsqueda y contraste. Pedir a las redes sociales que traten de desarrollar métricas algorítmicas para informar sobre la credibilidad de las noticias puede tener mucho sentido, pero en realidad, el verdadero problema está siendo la incapacidad de muchos para adaptarse a la enorme disponibilidad de información en la red y para gestionarla con un mínimo sentido crítico de la responsabilidad.

Cuando pienses en educación, piensa en la importancia de esa variable. Piensa en la necesidad de educar a tus hijos para el contexto en el que van a vivir, un contexto de hiperabundancia en la que el acceso a la información tiene necesariamente que responder a patrones de buen uso. Piensa cómo explicarles qué páginas son buenas y cuáles son malas, cómo diferenciar las fake news de las sátiras o parodias o simplemente del humor, cómo contrastar información, por qué es necesario hacerlo antes de compartir algo, cómo adquirir una disciplina de gestión de la información que evite que nos pasen como ciertas noticias completamente falsas, sensacionalistas o sesgadas. La red, con su hiperabundancia de información, podría ser una herramienta fundamental para el desarrollo del sentido crítico en la educación: basta con enseñar a los niños que la información no está en un libro de texto, sino ahí afuera, y corregirles en función del tipo de información a la que deciden recurrir, mediante ensayo y error, generando metodologías. El pensamiento crítico debe ser un elemento fundamental en la educación si no queremos terminar teniendo una sociedad de idiotas.

 

Powered by WPeMatico