Category Archives: Facebook

Auto Added by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico

Facebook se destaca frente a Google en la lucha contra las noticias falsas

Facebook disputed news

Facebook pone en marcha su mecanismo para etiquetar las noticias disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una serie de principios de funcionamiento. El movimiento de Facebook coincide precisamente con el momento en que Google empieza a recibir fuertes críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el más mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información supuestamente fiable y considerándolos como respuestas válidas.

El mecanismo empleado por Facebook parece claro: recurrir a una serie de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la posibilidad de que el mecanismo no sea suficientemente rápido, y que para el momento en que los equipos de fact checking hayan podido llevar a cabo sus comprobaciones con rigor, la difusión ya se haya llevado a cabo y el daño, en gran medida, ya esté hecho. A su favor, la posibilidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del número de veces que las noticias que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan aprender a etiquetar esas noticias no tanto en términos de la noticia en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

Fake Obama coupEn el caso de Google, el problema fundamental parece partir precisamente de la no aplicación de ningún tipo de inteligencia: los snippets que el buscador destaca en respuesta a ciertas búsquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar precisamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de manera prominente teorías conspiranoicas ante búsquedas como “planea Obama un golpe de estado”, o destaque respuestas planteadas como broma por Monty Python como si fueran una verdadera explicación de por qué razón los coches de bomberos son rojos es algo que deja a la compañía en muy mal lugar, sobre todo después de que su director general, Sundar Pichai, destacase en repetidas ocasiones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el problema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno detrás de otros los diez resultados de una página de resultados o SERP (Search Engine Results Page), sino que tiene que escoger una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el aparato escoge sistemáticamente la respuesta destacada por Google en su snippet y el mecanismo por el que se obtiene ese snippet carece de la inteligencia suficiente para discernir cuándo un resultado proviene de un sitio fiable o de una página absurdamente tendenciosa, el resultado es, en muchas ocasiones, que formulas una pregunta a tu Google Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo completamente la credibilidad de la compañía y de su tecnología – más aún teniendo en cuenta que los usuarios de Google Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de identificar (y de ofenderse) con este tipo de respuestas.

Que Google, compañía con dieciocho años de experiencia en la búsqueda, caiga en un error tan de base como que sus resultados no estén a la altura como para ser leídos por una máquina y suministrados como respuesta única a una pregunta, debería llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el problema de credibilidad que puede llegar a representar si no se corrige de manera rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya más allá de la simple supervisión manual caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los datos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson empieza a decir tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con páginas sensacionalistas o tendenciosas de ínfima calidad, tus respuestas no valdrán nada.

 

Powered by WPeMatico

El servicio al cliente en la era de la web social

IMAGE: Arrow - 123RFSegún suele contarse en la mayoría de los cursos de social media, la primera compañía que decidió invertir en el desarrollo de un sistema de servicio al cliente basado en Twitter fue Comcast, como resultado de la iniciativa personal de un Frank Eliason convertido prácticamente en celebridad a partir de aquella estrategia.

La historia de Comcast, que obvia el evidente hecho de que ya otras compañías utilizaban entonces Twitter para contestar a sus clientes aunque no fuesen tan conocidas o no lo hiciesen de manera tan estructurada, fue detallada por Shel Israel en el capítulo 4 de su Twitterville, y se llevó a cabo mediante una cuenta, @ComcastCares, atendida por múltiples operadores que, en pleno 2008, con una Twitter prácticamente recién lanzada, comenzaban a inventar los códigos y trucos para poder plantear una actividad como el servicio al cliente a través de una herramienta tan minimalista. Cuestiones como el uso de las iniciales como firma de un tweet, o el del fondo para poner la fotografía del operador activo se fueron convirtiendo en práctica común, a medida que discurrían conversaciones e intercambios sobre los problemas de los clientes.

También Facebook, de una manera natural en el curso su evolución, se encontró en un momento dado con un uso bastante habitual como herramienta de servicio al cliente, que fue creciendo a medida que la red social se iba convirtiendo en prácticamente ubicua. Tras la adquisición de WhatsApp, la compañía se planteó que una de las pocas posibilidades que podía tener de poner en valor una compañía que tenía como parte de su misión fundacional el no hacer publicidad ni distraer a sus usuarios con nada que no fuese la comunicación (aquel no ads, no games, no gimmicks garabateado por Brian Acton en un papel destinado a su cofundador, Jan Koum) era plantear su uso como herramienta de servicio al cliente para compañías, una reinterpretación de las prestaciones del call center pero adaptadas a la mensajería instantánea, que los clientes podrían así utilizar para dirigirse a las compañías, como ya habían planteado previamente compañías como Line, Viber o WeChat en el mercado asiático, o la propia Facebook con Facebook Messenger en el norteamericano.

Esa doble posibilidad de interpretación del servicio al cliente, dividida entre el uso de herramientas de social media como Twitter o Facebook o el de herramientas de mensajería instantánea como WhatsApp y similares, planteaba la posibilidad de un uso público, en el que toda la conversación o parte de ella se desarrollaba a la vista de todos los seguidores de la cuenta del usuario afectado, frente a uno privado y mucho más parecido al del call center tradicional, en la que la interacción tenía lugar en un foro privado, con la única diferencia de que se generaba una evidencia escrita. La posibilidad de elegir uno u otro canal, no obstante, aunque existía para el usuario, no era tal para las compañías, que se limitaban a tratar de atender a sus clientes a través de los canales que estos quisiesen escoger. Dado que el servicio al cliente tiende a incidir más en los problemas que en el buen funcionamiento de los productos o servicios, la mayor parte de las compañías habrían escogido seguramente la opción de “lavar los trapos sucios dentro de casa”. Muchos usuarios, en cambio, ante la posibilidad de aplicar un mayor nivel de presión sobre esas compañías ante determinados problemas, o como mínimo, de prevenir a otros usuarios acerca de los mismos en un cierto “ejercicio de solidaridad”, tienden a optar por el uso de canales públicos, que en determinados casos, en función del nivel de popularidad del afectado o de sus seguidores, pueden desencadenar auténticos problemas reputacionales. La opción de no estar o no contestar, en cualquier caso, es casi siempre peor, y genera menciones que, en caso de no ser atendidas debidamente, pueden convertirse en auténticas pesadillas en términos de SEO.

Twitter, consciente de su propuesta de valor como herramienta de servicio al cliente, acaba de presentar una prestación que permite incorporar a los mensajes directos la posibilidad de presentar al usuario el nombre y la fotografía de la persona de la compañía que les está atendiendo, en un intento de hacer que esa interacción tenga unas connotaciones más humanas y personales. La herramienta no es de uso automático y precisa de una integración, pero las marcas interesadas en adoptarla pueden solicitarlo a través de un formulario y, en caso de tener el estatus de verificadas, obtenerlo de manera rápida.

La idea, seguramente, pretende otorgar a las compañías que apuesten por ello una diferenciación con respecto a las que prefieran explorar el uso de chatbots u otras herramientas conversacionales basadas en inteligencia artificial, que se encuentran últimamente en un pico de popularidad derivado de la disponibilidad cada vez más ubicua de sistemas de procesamiento de lenguaje natural cada vez más sencillos, baratos y eficientes. Los chatbots, no obstante, ya no deben ser considerados como aquellos asistentes torpes del pasado que simplemente servían, en el mejor de los casos, para redirigir consultas: ahora, gracias a esas mayores habilidades para reconocer los elementos del lenguaje, permiten gamas mucho más amplias de opciones, y tienen una gran popularidad con segmentos cada vez más amplios de usuarios – incluso aquellos, como habitualmente los más jóvenes, que llegan a preferirlos activamente porque no implican molestar a una persona de carne y hueso al otro lado. Ese factor, unido al interés por no desatender ningún canal potencial de comunicación, lleva a que las distintas opciones vayan a terminar combinándose u ofreciéndose conjuntamente en un buen número de ocasiones. Si creías que ofrecer servicio al cliente era simplemente poner un número de teléfono en tu publicidad, vete pensándolo de nuevo…

 

Powered by WPeMatico

Repensando Facebook

IMAGE: inbj - 123RFLa carta de Mark Zuckerberg, titulada Building global communities, deja claro el proceso mental del fundador de Facebook tras lo que ha supuesto la primera toma seria de conciencia de su nivel de responsabilidad: la de haber servido como colaborador necesario para abocar a su país a cuatro años oscuros bajo el mando de un imbécil como Donald Trump. No, la idea de que Facebook contribuyó a que Trump llegase a la Casa Blanca ya no es “una locura“, sino una desgraciada evidencia.

La carta parece reescribir la misión de Facebook, “dar a la gente el poder de compartir y hacer el mundo más abierto y conectado”, tras las evidencias de que ha sido precisamente esa capacidad la que ha generado que muchos grupos en la sociedad se encerrasen en sí mismos y comenzasen a expresar en sus cámaras de eco ideas calificables como antisociales, alimentadas por torrentes cuidadosamente administrados de noticias falsas y odio. La nueva misión, (aún) extraoficialmente definida como “desarrollar la infraestructura social para dar a la gente el poder de construir una comunidad global que funcione para todos”, deja clara la necesidad de redefinir Facebook como una herramienta de cohesión, no de división.

Comunidades que sirvan como apoyo a las personas, que sean seguras, correctamente informadas , cívicamente implicadas, e inclusivas. Aquella red social que nació en un campus universitario y que creció con sus usuarios para convertirse en una herramienta de conexión para sus amigos y familias, toma ahora esa base como cimiento y pretende desarrollar la infraestructura social para el desarrollo de la comunidad. De hecho, la idea de “infraestructura social” se convierte en la más repetida de toda la carta: a lo largo de las 5,800 palabras, se repite hasta catorce veces. 

Para construir esa infraestructura social, Facebook se encomienda al gran oráculo del futuro: la inteligencia artificial. A punto de alcanzar los dos mil millones de usuarios, Facebook quiere dejar claro que si tu idea es cometer un atentado, acosar a otros, incitar al odio o suicidarte, la red se encargará de detectarlo y actuar en consecuencia. La eliminación de una frase tras la primer publicación de la carta que hacía referencia a la monitorización de mensajes privados no oculta que la intención de la compañía es aplicar la inteligencia artificial a la detección de comportamientos antisociales o peligrosos, y proceder a la monitorización personalizada de aquellas circunstancias que puedan merecerlo. Facebook va a seguir siendo una compañia y como tal tiene como fin ganar dinero, pero parece comenzar a aceptar la responsabilidad por la influencia que ejerce sobre las personas, tras constatar mediante experimentos poco éticos que podia influir en el estado mental de sus usuarios.

Una lectura crítica de la carta de Zuckerberg revela claramente una intención política, un intento de sustituir a esos periódicos a los que ya ha privado de una sustanciosa cantidad de ingresos, y una reflexión crítica sobre el papel que su red ha podido llegar a jugar en las últimas elecciones norteamericanas. Como elemento de reflexión, decididamente muy necesario: la próxima vez que, en el país que sea, un político pretenda pervertir la influencia de Facebook inyectando odio y noticias falsas, debe ser neutralizado utilizando todos los medios posibles. El efecto de Facebook está alimentando todo tipo de reflexiones, que van desde las dudas sobre el verdadero valor de las elecciones, hasta las tentaciones epistocráticas o de voto cualificado. Si algo tiene claro el fundador de la red social más exitosa de la historia es que tiene que poner determinados temas bajo control, evitar la perversión de la herramienta y sus usos malintencionados, y que eso lo va a llevar a cabo mediante la tecnología que tiene a su alcance, la inteligencia artificial. Y en ese sentido, creo sinceramente que acierta: dejemos que la inteligencia artificial suplemente la desgraciada escasez de inteligencia natural de muchos.

 

Powered by WPeMatico

Política, noticias y redes sociales

How the new digital grassroots is reshaping politics - The EconomistJames Badcock me cita hablando sobre la interacción entre redes sociales, noticias y política en su artículo en The Economist titulado How the new digital grassroots is reshaping politics, en el que se plantea las posibles formas de lidiar con las noticias falsas en un escenario en el que un porcentaje cada vez mayor de ciudadanos se informa en las redes sociales, lee noticias, las comparte y, en cierta medida, cambia de opinión sobre diversos temas en función de lo que lee.

En palabras de Tim Cook, CEO de Apple, fake news is killing people’s minds, y son precisas respuestas que vayan desde la tecnología y la ley, hasta campañas educacionales masivas que puedan concienciar a los ciudadanos de todos los segmentos sociodemográficos sobre la importancia del problema de las fake news.

Facebook, la misma compañía que se preciaba de haber influenciado la primavera árabe, no puede ya seguir negando su responsabilidad. Un número creciente de norteamericanos la consideran el medio de comunicación en el que se informan de cada vez más cosas a pesar de los esfuerzos de la compañía por negarlo, y ven cómo esos nuevos hábitos de adquisición de información, que podrían servir para dar acceso a noticias más plurales y variadas, para enriquecer puntos de vista y ayudar al desarrollo del pensamiento crítico, se convierten en realidad en campañas planificadas de intoxicación colectiva apoyadas en las características del medio.

No, la respuesta no es simplemente esperar a que las compañías tecnológicas aparezcan con una varita mágica que elimine el problema, porque para solucionar ese problema van a hacer falta muchas cosas más. No es tan sencillo como decir “prohibimos las noticias falsas y echamos a los que las publican”, porque el problema tiene demasiados matices importantes que no pueden ser simplemente ignorados o minusvalorados. Va a ser necesario que desarrollemos nuestro sentido crítico y nos convirtamos en fact checkers a tiempo parcial, al tiempo que nos preparamos para una era en la que el activismo será más necesario que nunca.

 

Powered by WPeMatico

Las noticias falsas como reto tecnológico

Pope endorses Trump (FAKE)Mi columna en El Español de esta semana se titula “Noticias y redes sociales“, y vuelve a incidir sobre el tema de las noticias falsas diseminadas a través de redes sociales, tratando de plasmarlo como un reto que la tecnología tiene que solucionar, fundamentalmente tratando de reconstruir los mismos sistemas que existen en el mundo tradicional.

Las soluciones a problemas complejos no suelen ser sencillas. Pretender luchar contra las noticias falsas simplemente censurando su circulación choca con el hecho de que, a lo largo de muchas décadas de existencia de los medios de comunicación, las noticias falsas y sensacionalistas no han desaparecido, y confirman una industria que factura millones y tiene un público fiel. Sin embargo, en el mundo de la comunicación tradicional, a pesar de que existen decenas de medios sensacionalistas dedicados a inventarse conspiraciones, noticias falsas y rumores absurdos de todo tipo, la influencia de las noticias sensacionalistas no suele trasladarse a los medios considerados serios: las dos órbitas se encuentran razonablemente compartimentadas, lo que lleva a que quien consume basura, en general, sabe que lo está haciendo, y la información que aparece en ese circuito, por l general, no sale de él y limita así su influencia.

Ese es el sistema que, en la reinvención de las noticias a la luz de las redes sociales, falta por desarrollar: no se trata de intentar impedir la circulación de noticias falsas, porque tienen su público y ese público tiene derecho a consumirlas, pero sí de detectarlas, identificarlas y etiquetarlas como lo que son, de restringir su circulación por vías algorítmicas, y de evitar que tengan un incentivo económico directo excluyéndolas de los mecanismos de publicidad.

Prohibir que un tabloide sensacionalista como Daily Mail sea utilizado como fuente de referencia en Wikipedia es razonable dada la naturaleza de la publicación, una enciclopedia, y sin duda, no será el último medio que recibe tal “distinción”. Que Wikipedia, hace años denostada por algunos como una enciclopedia supuestamente no fiable, se haya consolidado como la mejor, más completa y más actualizada enciclopedia de todos los tiempos y pueda ahora convertirse en juez que toma decisiones y sanciona qué publicaciones pueden o no pueden utilizarse en sus referencias es un caso claro que demuestra que, sobre las bases de la red y los procesos sociales, pueden construirse mecanismos que superen claramente en generación de valor a los existentes en el mundo tradicional.

A la hora de reconstruir esos sistemas de referencia en las redes sociales, la tecnología va a resultar fundamental: pretender recurrir a editores humanos para etiquetar las noticias falsas y excluirlas no solo es imposible, sino que aporta potencialmente peligrosos elementos de relatividad. La idea parece tender hacia la combinación de sistemas que examinen los patrones de difusión de las noticias, con otros que incorporen el etiquetado de los usuarios, y con bases de datos que incorporen fuentes y noticias calificadas como no fiables. A partir de ahí, limitar la circulación de las noticias etiquetadas como falsas privándolas de acceso a algoritmos de recomendación automatizados, a sistemas de publicidad y a trending topics. Que leas una noticia falsa porque la hayan compartido contigo seguirá siendo perfectamente posible y formando parte de tu libertad individual, pero al menos debería ir convenientemente caracterizada como lo que es, como ocurre en el quiosco cuando vemos determinados medios.

El problema, de nuevo, no es sencillo. En el mundo tradicional, un medio alcanza la reputación de sensacionalista a lo largo de un tiempo de comportarse como tal. En la red, podemos crear un medio cada mañana, darle una apariencia convincente, y publicar lo que queramos inventarnos y convenga a nuestra agenda en tan solo unos pocos clics. En la red, el desarrollo de sistemas de fact-checking capaces de dar respuesta a este tipo de retos va a exigir la coordinación de abundantes recursos, y no va a ser sencillo, pero eso no quiere decir que no deba plantearse: para las redes sociales y buscadores, de hecho, se conforma como el próximo gran desafío. Ejercicios de colaboración como el que se está desarrollando en Francia sobre el que escribí hace unos días pueden aportar marcos interesantes y laboratorios sobre los que tratar de aislar y evaluar este tipo de cuestiones.

Sigue quedando mucho por hacer. Pero al menos, vamos centrando el problema.

 

Powered by WPeMatico

Con Francia en el horizonte…

Elections pre?sidentielles 2017 FranceCon las elecciones presidenciales francesas a la vuelta de la esquina, y dados los resultados de las reciente cita electoral norteamericana, todo apunta a que el país vecino se va a convertir en un auténtico laboratorio tecnológico en el que poner a prueba la influencia de factores como la divulgación de noticias falsas y su impacto en el proceso electoral.

Facebook acaba de anunciar el lanzamiento de un filtro para noticias falsas específico para Francia, al tiempo que se une a Google y a ocho grandes medios franceses para intentar poner en marcha herramientas de verificación de noticias. La idea es que herramientas como CrossCheck, desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos, puedan ser utilizadas en conjunción con bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; por Libération, en la que se compilan noticias positivamente identificadas como falsas; o por otros medios, con el fin de combinar esa información con reportes de usuarios y otro tipo de feedback, y reducir la difusión de esas noticias en los algoritmos de redes sociales y buscadores. Según algunos de los medios implicados, fue precisamente ese compromiso de las empresas online como Facebook para reducir la circulación de noticias falsas en sus algoritmos de recomendación lo que les animó a participar en la iniciativa.

En los Estados Unidos, Facebook ha solicitado la colaboración de terceros como Snopes, PolitiFact o la herramienta de fact-checking de The Washington Post para, combinado con el feedback de los usuarios, tratar de limitar la difusión de ese tipo de noticias falsas y etiquetarlas como tales.

El problema de las noticias falsas en los entornos en red es, por un lado, la ausencia de referencias válidas para juzgar su credibilidad. Con el valor de las cabeceras periodísticas en plena crisis, muchos medios online han pasado a ocupar un lugar creciente en la dieta informativa de los ciudadanos, pero junto con medios que lo hacen muy bien y desarrollan un periodismo de nivel, surgen otros que se aprovechan de las escasas barreras de entrada del canal online para intoxicar, inventar o difundir noticias falsas vinculadas a agendas políticas concretas, con el agravante, además, de contar con incentivos generados por la propia difusión de esas noticias en redes sociales y buscadores. La exclusión de las páginas identificadas como de noticias falsas de los mecanismos de publicidad de Google y Facebook es un primer paso importante porque reduce el incentivo económico de generarlas, pero es tan solo un primer paso de muchos más que hay que dar. El estudio de los patrones d difusión de las noticias falsas, por ejemplo, es otra herramienta importante de cara a prevenir su circulación, y presumiblemente fue una de las razones principales que llevó a Facebook a adquirir CrowdTangle, una herramienta de analítica social, el pasado noviembre.

Por otro lado, las redes sociales juegan un papel de “cámara de eco” en las que los ciudadanos, llevados por los mecanismos sociales que les llevan a reunirse preferentemente con otras personas que piensan como ellos, sienten que todo su entorno refuerza sus creencias y las priva de los habituales frenos sociales, generando una radicalización que tiende a favorecer a opciones que, sin esos mecanismos, serían meramente marginales. El problema, lógicamente, es cómo frenar las noticias falsas sin convertirse en una especie de “árbitro de la verdad” que decide lo que es cierto y lo que es falso, una cuestión que ya le costó a Facebook múltiples críticas en ese sentido y una reunión de urgencia con políticos conservadores cuando algunos de sus editores afirmaron aplicar criterios con sesgo político a la hora de decidir qué noticias se convertían en trending y cuales no. Según muchos, fue precisamente el miedo a que se relacionase a Facebook con una red hostil a las ideas conservadoras lo que hizo que la compañía no hiciese suficiente a la hora de detener la difusión de noticias falsas en las pasadas elecciones norteamericanas.

¿Son realmente las redes sociales total o parcialmente responsables del resultado de las últimas elecciones norteamericanas? ¿Son los lectores que solo leen lo que quieren leer, lo que les hace sentir bien o lo que coincide con su visión del mundo? ¿Un efecto combinado de ambas cosas? Mientras algunas noticias son claramente falsas desde un punto de vista puramente factual, en muchos otros casos, los matices no son tan sencillos, además de mezclarse con recursos como la sátira o el humor que no deben ser, en principio, objeto de censura, pero que dificultan la tarea de identificación. Si los mecanismos basados en la actuación de editores humanos tienen el problema de la arbitrariedad, y los desarrollados a partir de algoritmos de inteligencia artificial son complejos y con posibilidades de fallar, la alternativa parece ser combinar varios mecanismos a modo de indicadores y optar por metodologías mixtas en las que se añadan al feedback y al etiquetado por los usuarios, y a los patrones de difusión que pongan bajo sospecha todo aquello que experimente una difusión especialmente rápida. Para nada un problema trivial. Y todo indica que las próximas elecciones francesas se disponen a ser, en muchos sentidos, un escenario para muchas pruebas relacionadas con este tema.

 

Powered by WPeMatico

Noticias falsas: aún queda mucho por hacer

IMAGE: cbies - 123RFLa lucha contra las noticias falsas, considerada ya una cuestión estratégica y fundamental por compañías como Google o Facebook, continúa con recientes anuncios como la eliminación de más de 200 publicaciones de su sistema de publicidad por parte del primero, o los cambios en el algoritmo de los trending topics por el segundo.

Mientras Google se afana en detectar publicaciones que habitualmente crean noticias falsas o bulos y cortarles las fuentes de financiación, un trabajo en el que ambas compañías llevan inmersos ya desde el pasado noviembre, Facebook, en pleno ojo del huracán por su supuesto papel decisivo en las últimas elecciones presidenciales, trata además de redefinir sus trending topics añadiéndoles la fuente, mejorando el sistema de determinación de tendencias, y homogeneizándolos por regiones en lugar de personalizarlos como hacía hasta el momento. Las medidas forman parte de una batería de ideas que la compañía evalúa tras facilitar el acceso de expertos a sus datos para que desarrollen sistemas de control – algunos ya objeto de patente – y recibir ideas de estudiantes en los hackathones organizados en universidades.

El problema es indudablemente grave: según un reciente estudio de Stanford, la gran mayoría de los estudiantes no saben discernir cuando una noticia es falsa o esponsorizada: la absurda idea de que eran “nativos digitales” y que tenían de alguna manera internet metido en su pool genético ha llevado a muchos padres y educadores a una dejación de responsabilidad en este tipo de cuestiones, convirtiéndolos en una generación que carece de referencias válidas y de sentido crítico. La tardanza de Facebook en hacer frente a este problema, debida fundamentalmente al miedo a que se relacionase con un sesgo en contra de ideologías conservadoras, llevó a que el ahora presidente Donald Trump pusiese en marcha una auténtica maquinaria de fabricación y dispersión de noticias falsas a varios de cuyos actores principales ha recompensado después con puestos en su gabinete, en una maniobra que según muchos observadores, pudo condicionar en gran medida el resultado de las elecciones y que, en caso de no tomar medidas, podría empeorar en el futuro tras el acceso a las urnas de una generación todavía más ingenua y confiada que las anteriores.

Los creadores de noticias falsas, por otro lado, también utilizan la tecnología para mejorar su producto: una aplicación basada en inteligencia artificial es capaz de recrear gestos y vocalizaciones sobre el vídeo de una persona, generando falsificaciones capaces de poner cualquier cosa en boca de cualquier personaje con resultados entre aterradoramente buenos o sencillamente mediocres, pero indudablemente capaces de llevar a engaño a muchos usuarios. Mientras compañías como Apple o Snapchat afirman no tener problemas con las noticias falsas debido a un control mucho mayor sobre las publicaciones que admiten en su red, ecosistemas más abiertos como Google o Facebook se ven obligados a trabajar con una amplia gama de señales que incluyen desde los patrones de popularización de las noticias hasta los reportes de los propios usuarios, en un esfuerzo por aislar ese tipo de noticias y castigar a sus autores mientras tratan de no poner en riesgo la pluralidad o de cerrar el paso a quienes cuestionen el pensamiento mayoritario.

El problema es indudablemente complejo. Si tras la primera campaña de Barack Obama vimos una proliferación de supuestos expertos en social media afirmando que podían ayudar a cualquier político a mejorar sus resultados, tras la campaña de Trump nos arriesgamos a ver aprendices de Steve Bannon, editor del panfleto ultraderechista Breitbart News, aspirando a puestos de asesoría estratégica en gabinetes de medio mundo. Nada que pueda o deba ser tomado a la ligera… y ahora, menos que nunca. Estamos indudablemente ante uno de los problemas más preocupantes y complejos de nuestros tiempos, y todavía queda mucho por hacer.

 

Powered by WPeMatico

Analizando Facebook como compañía de medios

Facebook TVA lo largo de sus doce años de historia, la forma en la que Facebook se ha definido a sí misma siempre ha sido la misma: una compañía de tecnología. Esa definición ha condicionado claramente su estrategia, que se ha centrado en convertirse en una potencia en términos de desarrollo, una tarea en la que su propio fundador sigue implicándose habitualmente. La mayoría de las adquisiciones de Facebook, de hecho, reflejan ese patrón: equipos de buenos desarrolladores, a los que se busca retener a toda costa y potenciar con los recursos de su nuevo hogar, integrándolos en equipos potentes y dotándolos de más medios. La evolución post-adquisición, uno de los elementos más importantes en el éxito de una compañía que utiliza esa herramienta con notable frecuencia, parece reflejarlo así.

Esta idea, la de ser una compañía tecnológica, está fuertemente imbricada en el ADN de Facebook. Sin embargo, todo indica que cada día más, comienza a consolidarse otra forma de entender la compañía, en una visión no competitiva con la anterior, pero sí fuertemente complementaria: la de ser una compañía de medios. Diferente a las tradicionales, sí, pero dedicada a una labor de plataforma cuya finalidad sería la de fomentar la producción de contenido.

Entender la compañía como un canal implica, en primer lugar, tratar de resolver lo que muchos consideran su mayor reto actual: la proliferación y difusión de noticias falsas. Frente a la idea de “yo soy solo una plataforma, y lo que se mueva a través de ella no es mi problema”, parece extenderse otra visión que llevaría a la compañía a tomar responsabilidad, a educar a los periodistas, a abrir sus datos a investigadores, y a tratar de desarrollar sistemas de fact-checking que, dentro de unos límites, permitan a los usuarios saber a qué atenerse cuando acceden a contenidos en su red.

Esta idea podría tener su continuación en el intento de fomentar el desarrollo de otro tipo de contenidos en Facebook: en lugar de poner el foco en el vídeo en vivo, pagando a personajes y celebridades de diversos tipos para que hagan livestreaming desde los eventos a los que acuden, en lo que llegó a calificarse de auténtica obsesión para el fundador, la compañía parece ahora tender a eliminar estos incentivos económicos para tratar de fomentar, aparentemente, contenidos de otro tipo, generalmente más largos y de mayor calidad por los que la compañía sí tendría interés en pagar.

Un posicionamiento de este tipo acercaría a Facebook más a la idea de una productora, de un canal de televisión que podría financiar parcialmente el desarrollo de contenidos, y que se interesaría además por ofrecerles esquemas publicitarios adicionales, como los nuevos anuncios de vídeo en Instagram Stories o los llamados mid-roll, anuncios que interrumpirían vídeos que el usuario está viendo, siguiendo el estilo habitual en la televisión tradicional. En un esquema de ese tipo, un productor con una idea para un formato audiovisual podría plantearse Facebook como actualmente se plantea un canal de televisión estándar, con unos objetivos de audiencia determinados, y la posibilidad además de actuar de manera mucho más controlada sobre los posibles destinatarios: mientras en la televisión convencional solo se dispone de herramientas como el horario de emisión o la emisión de auto-promos para tratar de posicionarse ante unos usuarios con determinados patrones sociodemográficos, Facebook ofrecería una gama de herramientas de segmentación infinitamente más precisas y potentes, suplementadas además con mecanismos sociales.

Esto podría plantear un conflicto de intereses: ¿tendría el contenido producido o parcialmente financiado por Facebook, en el que la compañía mantiene un interés para incrementar su audiencia, unas condiciones distintas a las que obtendría, por ejemplo, el contenido generado por una televisión o un periódico, a la hora de acceder a mecanismos publicitarios? El dilema es muy similar al existente en Google, cuando comenzó a editorializar los resultados de búsqueda y a introducir elementos de desarrollo propio posicionados en lugares privilegiados de la página, que competían con otros actores que buscaban un posicionamiento similar, que veían limitada su visibilidad, y que generó todo un caso anti-monopolio en la Unión Europea.

¿Estamos dirigiéndonos a un escenario similar, con una Facebook centrada en fomentar el desarrollo de contenido y compitiendo con otros actores tradicionales en ese sentido? Hace ya tiempo que tiendo a hablar de Facebook como el mayor medio de comunicación del mundo, el que tiene llegada a un mayor número de personas y el que, de hecho, se ha convertido en más estratégico en estrategias comerciales o incluso políticas. Ahora, podría ser que fuese la propia Facebook la que se plantease que no tiene forma de escapar a ese papel, y que comenzase a desarrollarlo como tal, con todo lo que ello podría conllevar.

 

Powered by WPeMatico

Cuando las máquinas entienden lo que ven

Facebook automatic image tagsFíjate en la fotografía que acompaña a esta entrada: una imagen reciente de mi Facebook personal, en la que aparece un puente sobre un río, de noche, con su reflejo en el agua, y unos focos de luz.

Hasta aquí, todo normal. Ahora fíjate en la pequeña línea de texto inferior, en la que un algoritmo de inteligencia artificial de Facebook examina la fotografía, la interpreta, la compara con una enorme librería de imágenes utilizada para educarlo, y concluye que las imágenes contenidas en la foto son ni más ni menos que eso: bridge, night, sky, outdoor y water. Un etiquetado perfectamente correcto de la fotografía, realizada de manera completamente automática, sin intervención humana. Algo que también utilizan aplicaciones como Google Photos o Apple Photos para ayudarte a organizar tu librería, ahora aplicado a la presentación pública de fotos en una red social.

Obtener esa descripción para cualquiera de las fotografías que hayas subido a Facebook es muy sencillo. Basta con localizar la foto, ponerla a toda pantalla, hacer clic con el botón derecho para obtener el menú contextual, seleccionar “Inspeccionar” (en Chrome) o “Inspeccionar elemento” (en Firefox), y fijarte en las propiedades Alt asociadas a la imagen. Si no quieres hacerlo así y prefieres una solución que no visualice código, puedes instalar una extensión en tu navegador que las visualiza como una capa adicional sobre las propias fotografías. Facebook lleva desde abril de 2016 añadiendo estas etiquetas a tus imágenes de manera automática, tras un desarrollo orientado a facilitar la usabilidad de la página para personas ciegas o con limitaciones de visión en cuyo desarrollo la compañía empleó unos diez meses.

Cualquier usuario de repositorios fotográficos, comenzando seguramente – o al menos para mí – con Flickr en 2004, recordará los requerimientos derivados del etiquetado de fotografías: escoger etiquetas adecuadas, mantener la coherencia, utilizar singular o plural, etc. para que esas etiquetas pudiesen cumplir su función, la de acceder al contenido de manera más sencilla, cuando fuese necesario. Ahora, un algoritmo puede “ver” la foto, deducir su contenido con un notable índice de acierto, y asignar las correspondientes etiquetas con total corrección y coherencia. Sin intervención humana.

Que una máquina sea capaz de pasar de entender una imagen como un simple conjunto de píxeles, a interpretar su contenido y etiquetarlo con precisión es algo que no es radicalmente novedoso: se lleva mucho tiempo trabajando en ello con un nivel de avance más que notable. Pero constatarlo sobre tus propias fotografías puede ayudar a muchos a entender lo que ello significa y las posibilidades que ofrece. Puede hace que algunos ingenuos que todavía piensan que la inteligencia artificial consiste en la simple ejecución de rutinas preconcebidas se den cuenta de que aquí hay más, mucho más. No hablamos de una máquina capaz simplemente de ver una fotografía y compararla con una base de datos, sino de una máquina que es capaz de ver un puente y ser capaz de entender que es un puente, independientemente del puente que sea o desde qué ángulo esté tomado. Capaz de compararla con todas las fotos etiquetadas como puentes utilizadas en su entrenamiento, y deducir que esa nueva imagen también es un puente… que es básicamente lo que hace una inteligencia humana, tras haber sido adecuadamente entrenada.

 

Powered by WPeMatico