Category Archives: Facebook

Auto Added by WPeMatico

La realidad virtual y aumentada como escenario de futuro

Topics F8 2017El desarrollo del f8, la conferencia de Facebook para desarrolladores, ha dejado una cuestión clara y patente: la fortísima apuesta de la compañía por la realidad virtual y aumentada como escenario de futuro. Un interés que ya era evidente simplemente viendo la lista de temas y sesiones dedicadas a ellos en el programa que aparece en la ilustración, pero que además, se está reflejando en el énfasis que la compañía está poniendo a la hora de anunciar sus novedades.

Todo parece indicar que la idea de Facebook es que la realidad virtual y aumentada forme parte del escenario futuro de la compañía. Cuando Facebook comenzó su andadura, el protagonismo fundamental lo tenía el texto, el intercambio de mensajes y las actualizaciones tecleadas en ese formato. A medida que la red social fue incrementando su popularidad, ese protagonismo pasó a las fotografías: nos acostumbramos a ir a Facebook en busca de fotos de las vacaciones, de imágenes, de material gráfico estático de cualquier tipo.

Con el tiempo, el crecimiento del ancho de banda disponible y la popularización del formato, las imágenes cobraron vida, y pasamos a la era del protagonismo del vídeo: una cantidad creciente de secuencias, que llegaron al punto de construir un ecosistema basado en la viralidad que la compañía fue capaz, en muchos sentidos, de liderar. En 2015, Facebook logró convertirse en el lugar que albergaba la gran mayoría de los vídeos que superaban el millón de visualizaciones, en el preferido de los anunciantes que utilizaban el vídeo como formato, y en el líder de una categoría, la de la llamada “publicidad social”, definida prácticamente a partir de la propia actividad de la compañía. La actividad de Facebook, que desafiaba a una YouTube tradicionalmente considerada líder en todo lo relacionado con el vídeo, no estaba exenta de polémica en cuestiones como la reproducción automática de clips para inflar las cuentas de reproducciones o el freebooting, la práctica de tomar vídeos de otras plataformas y subirlos a Facebook.

Ahora, Facebook se está planteando el desarrollo de su próximo ecosistema, y todo indica que va a venir dado por la realidad virtual y aumentada. Una apuesta sin duda mucho más complicada que las anteriores, en las que la compañía se limitaba a dejarse llevar por una tendencia del entorno: la realidad virtual y aumentada se encuentra en una fase todavía muy embrionaria, el número de dispositivos en manos del público es aún escaso, y la oferta de muchos competidores que algunos consideran fundamentales, como es el caso de Apple, está aún completamente por definir. Ante ese escenario, Facebook ha tomado la decisión de lanzarse al agua con todas sus consecuencias, una idea que ya estaba presente cuando, en marzo de 2014, la compañía decidió pagar unos dos mil millones – $400 millones en metálico, 23.1 millones de acciones y un earn-out de $300 millones – a cambio de la propiedad de Oculus VR, o cuando Mark Zuckerberg hizo aquella aparición sorpresa en el Mobile World Congress de Barcelona de 2016. 

Ahora, Facebook pone toda la carne en el asador y apuesta clarísimamente por una estrategia en la que atraer a los desarrolladores es el elemento fundamental: React VR, una plataforma de desarrollo de aplicaciones básicas de realidad virtualSpaces, un producto para que puedas verte con tus amigos en escenarios de realidad virtual (que recuerda enormemente a los avatares de algunas plataformas de gaming); herramientas de modelado 3D para construir escenarios de realidad aumentada; cámaras de realidad virtual; e incluso un equipo de sesenta personas dedicadas a investigar métodos para interpretar nuestras ondas cerebrales y transformarlas en comandos.

Está claro: la realidad virtual y aumentada es la gran apuesta de futuro de la compañía. No es una apuesta repentina, no es un entusiasmo irracional, no es un vaticinio futurista: es un escenario pensado y estudiado durante largo tiempo, en el que la compañía acumula ya una importante experiencia, y en el que confía alcanzar una posición de dominio muy pronto. Eso implica unos niveles de popularización y difusión de la tecnología que hoy parecen aún relativamente lejanos, un escenario que sin duda va a definir todo un ecosistema interesante para muchos. Durante el pasado MWC tuve ocasión de mantener algunas conversaciones con Robert Scoble, que acababa de publicar su libro junto con Shel Israel sobre el tema, titulado The fourth transformation, que vaticina una enorme actividad en este tema, y además de comentar la estrategia de otras compañías en ese escenario, hablaba entusiasmado de su aplicación a prácticamente todos los ámbitos. Mucho ojo: la apuesta de Facebook no es en ningún caso un salto sin red, sino una clarísima apuesta de futuro.

 

Powered by WPeMatico

Asesinatos en vídeo y la responsabilidad de Facebook

FB timeline El pasado domingo, en Cleveland, un individuo utilizó su smartphone para filmar el asesinato de una persona escogida completamente al azar, que caminaba por un parque. Simplemente, detuvo su coche, escogió a una persona de 74 años, y le pegó un tiro, supuestamente para llamar la atención de una mujer. Después, subió el vídeo a Facebook y filmó otro, esta vez en vivo, explicando el anterior y confesando su autoría. En estos momentos hay un enorme operativo policial de cara a la busca y captura del sujeto, aunque en el momento de escribir esta entrada aún continuaba en libertad.

Tras los hechos, se ha desencadenado una discusión sobre la responsabilidad de Facebook en la publicación y diseminación del horroroso vídeo. Se plantea hasta qué punto es la compañía responsable por no eliminar el vídeo más rápidamente, o incluso si se debería cerrar íntegramente Facebook Live hasta que exista una tecnología suficientemente madura como para evitar que vídeos como ese sean publicados.

En la ilustración que acompaña la entrada podemos ver la secuencia temporal de los hechos desde la publicación del primer vídeo, previo al asesinato, hasta su retirada y el cierre de la cuenta del autor de los hechos. En total, un poco más de dos horas. El sistema utilizado por Facebook está basado en las denuncias del contenido hechas por los usuarios, y de la secuencia temporal se deduce que la compañía fue razonablemente rápida y competente a la hora de reaccionar. El vídeo es claramente un contenido que no debería ser hecho público y que obviamente origina un enorme dolor a cualquier persona relacionada con la víctima, pero… ¿cuál es la base de las reclamaciones exactamente? Facebook no puede, por mucho que lo intente, evitar que alguien mate a alguien, y tampoco puede evitar que suba el vídeo a su plataforma: lo máximo que se le puede pedir es que lo retire lo antes posible y que evite su posible redifusión.

De alguna manera, algunos parecen estar reclamando a Facebook, una empresa tecnológica, una responsabilidad que la tecnología, simplemente, no es capaz de abarcar ni lo será durante mucho tiempo. De acuerdo, Facebook, junto con algunas otras compañías como YouTube o Twitter, ha conseguido que todo aquel que tenga un smartphone se convierta potencialmente en una emisora de televisión con capacidad de emitir en directo lo que quiera. Antes, cuando para emitir en directo era necesario tener un costoso equipo, unos enlaces y unas licencias determinadas, ya había discusión sobre qué se podía hacer si, por ejemplo, una cámara recogía escenas inapropiadas o si una periodista se suicidaba en directo. Ahora, esas discusiones deberían ser idénticas: ¿qué debe hacer Facebook? Nada. Intentar que sean retiradas lo antes posible, y que no vuelvan a ser redifundidas. Hacer responsables a las empresas tecnológicas de todos los males del mundo es absurdo y no va a ningún sitio: esos males ya estaban allí mucho antes de que las empresas tecnológicas apareciesen en la escena, y desgraciadamente, seguirán estando después de tal aparición.

Ningún sistema de machine learning puede evitar que alguien emita en directo o suba a una plataforma un vídeo de un asesinato. Se podría intentar llegar a reconocer ciertos patrones, pero la tarea es enormemente compleja y, aún así, habría infinidad de circunstancias en las que un asesinato podría no parecerlo, resultar confuso o dar lugar a un falso positivo. Pedir a la tecnología que haga algo imposible es típico de quienes no entienden nada de tecnología, y un recurso fácil cuando se pretende que un nuevo escenario es culpable de algo que no nos gusta. No, a nadie le gusta que se mate a personas inocentes ni que eso pueda ser publicado en un vídeo, pero Facebook, siempre que actúe con prontitud para retirar esos contenidos y evitar su redifusión, no es culpable de nada. Las herramientas solo definen escenarios, lo que los actores decidan hacer en ellos es responsabilidad de ellos mismos.

Podríamos llegar a pensar, incluso, que la posibilidad de emitir en directo algo como un asesinato podría llegar a funcionar como un perverso incentivo a la comisión del mismo. Una mentalidad de ese tipo es la que a otro nivel lleva, por ejemplo, a los responsables de retransmisiones deportivas, a escoger cámaras que miran hacia otro lado cuando alguien salta al campo buscando “su minuto de gloria”: si privamos a esa persona del supuesto “privilegio” de aparecer en directo ante millones de telespectadores, podremos llegar a desincentivar su comportamiento (aunque muy posiblemente sea suficiente con el incentivo que suponen los miles de espectadores presentes en el propio evento). Sin embargo, incluso en esa comparación, la conclusión se sostiene: ni las televisiones son consideradas responsables de nada, ni se les pide nada más que el que intenten, en la medida de lo humanamente posible, no mostrar los hechos.

Facebook, dentro de sus posibilidades y entendiendo, lógicamente, que no tiene un realizador ni un director al pie del cañón para cada vídeo que es subido a su plataforma o emitido en directo, pone todos los medios lógicos a su alcance para intentar minimizar el tiempo que un vídeo inapropiado se mantiene a la vista de los usuarios. Eso supone tener personas preparadas 24 horas al día, 7 días a la semana para recibir denuncias de usuarios y tomar una rápida decisión sobre su posible retirada, evitando falsos positivos y tratando de hacerlo lo mejor posible. Si dentro de unos medios razonables, se puede minimizar ese tiempo desde las dos horas del pasado domingo por la noche a tan solo media hora, genial. Pero mucho me temo que, por el momento, eso vendrá de incrementar el número de supervisores humanos disponibles, no tanto del desarrollo de algoritmos de machine learning (aunque algo, posiblemente, puedan hacer). El momento en que una plataforma sea capaz de detectar que en un vídeo se está cometiendo un asesinato o un hecho violento y decida, de manera autónoma, interrumpir su emisión está aún muy lejano. Hablamos de tecnología, no de magia.

Como tantas otras posibilidades convertidas en realidad por la tecnología, el lifestreaming no es ni bueno ni malo: lo es el uso que se haga de el. Por cada uso siniestro o execrable que se hace de una tecnología así, pueden buscarse mil ejemplos de posibles usos positivos. ¿Se ganaría algo eliminando Facebook Live porque cualquiera podría hacer algo así, o limitando su uso únicamente a determinados usuarios? Seguramente, perderíamos más de lo que pretendíamos ganar. Demonizar a Facebook porque su plataforma fue utilizada por un asesino para mostrar su crimen al poco tiempo de cometerlo es absurdo, y equivalente a culpar al fabricante de cuchillos por los robos o asesinatos que se cometen con ellos. Los hechos son terribles y dolorosos, sí. No es bueno que se muestren en público, de acuerdo. Pero no se puede exigir a Facebook más responsabilidad que la que tiene: eliminar el contenido lo antes posible con los medios humanamente a su alcance, y evitar su redifusión.

 

Powered by WPeMatico

Facebook Town Hall: activando la democracia

Facebook Town Hall

Facebook pone en marcha en los Estados Unidos su anunciado Facebook Town Hall, la posibilidad de utilizar Facebook para ver quiénes son los representantes de los ciudadanos en las distintas instituciones, y conectar con ellos a través de sus páginas en Facebook con el fin de hacerles llegar sus preocupaciones, peticiones, protestas, etc.

El desarrollo de Facebook tiene muchísimo sentido en democracias en las que existe un vínculo directo entre los ciudadanos y sus representantes, frente a aquellas en las que los representantes son simplemente elegidos por el líder de un partido que los presenta a los electores en forma de listas cerradas. En democracias como la española, más calificables como de partitocracias, el vínculo entre representantes y representados se encuentra completamente diluido: el ciudadano vota a unas siglas, a un partido, no a una persona en concreto, y dado que su representante no es decidido por ellos sino por el presidente de dicho partido, comunicarse directamente con él tiene muy poco sentido. De hecho, muchos diputados o senadores españoles tienden a “protestar” cuando reciben un número que consideran excesivamente alto de correos electrónicos de los ciudadanos, que consideran imposibles de gestionar. En los casos en los que los representantes se esfuerzan por contestar, se trata de un esfuerzo voluntarista: en realidad, esos correos electrónicos no tienen por qué proceder de los ciudadanos de su circunscripción, y aunque el político podría llegar a mejorar su reputación o a generar cierta afinidad gracias a ese comportamiento, su designación para representar o no a esos ciudadanos o a los de otra circunscripción no depende de su comportamiento o acciones, sino de la voluntad o necesidades de su partido.

En países como los Estados Unidos o el Reino Unido, en los que los ciudadanos escogen directamente a su representantes en cada una de las instituciones, ofrecer a esos ciudadanos una forma de conectar con ellos tiene todo el sentido del mundo. Los representantes perciben perfectamente la importancia de ese vínculo, y se ven obligados a pensar en las consecuencias de ejercer acciones que sus votantes puedan considerar una mala representación de sus intereses. Igualmente, tienen que pensar constantemente en la atención que ofrecen a esos votantes: representantes que no contestan a los ciudadanos a los que representan o que no lo hacen adecuadamente descienden rápidamente en sus preferencias, lo que crea un incentivo a mantener el vínculo directo. De hecho, una buena parte de la oficina de un representante político suele estar dedicada al desarrollo de infraestructuras para gestionar ese diálogo con sus ciudadanos.

Los ciudadanos, en este tipo de democracias, pueden clasificarse en función de su nivel de actividad política. Aquellos que desarrollan una actividad política consciente e informada tienden no solo a votar en las elecciones, sino a hacerlo escogiendo a un representante en concreto que consideran que defenderá sus intereses adecuadamente, y valoran la posibilidad de poder mantener una comunicación con ese representante si consideran que existe una necesidad para ello. Pero incluso aquellos ciudadanos que no votan o que no mantienen un nivel de información adecuado pueden encontrar valor en una herramienta que les permite saber quiénes son realmente sus representantes, aunque no hayan sido votados por ellos, por el hecho de residir en un lugar determinado, y mantener su posibilidad de influenciarlos o de demandarles explicaciones.

¿Hasta qué punto existe una madurez en la relación entre representantes y representados que evite que ese supuesto diálogo no se desarrolle en forma de conjunto de gritos? Depende en gran medida de las acciones del representante en cuestión, tanto de su sentido, como de su capacidad de explicarlas de una manera adecuada. En cualquier caso, el desarrollo de una herramienta de este tipo solo puede contribuir de manera positiva, facilitando que dicha relación evolucione y se haga más útil con el tiempo. En el fondo, Facebook Town Hall solo refleja que en estos tiempos, Facebook se ha convertido en el canal a través del cual muchos ciudadanos participan y se informan, de manera que está en la situación de poder ofrecer tanto a los ciudadanos una herramienta cómoda, como a los representantes una manera de gestionar esa relación bidireccional. Algunos, de hecho, han calificado Facebook Town Hall como “lo mejor que ha hecho la compañía“. Y a mí, desde la distancia de una partitocracia como la española en la que Facebook Town Hall no tendría ningún sentido, decididamente me lo parece. De hecho, me genera una buena dosis de envidia.

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico

Facebook se destaca frente a Google en la lucha contra las noticias falsas

Facebook disputed news

Facebook pone en marcha su mecanismo para etiquetar las noticias disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una serie de principios de funcionamiento. El movimiento de Facebook coincide precisamente con el momento en que Google empieza a recibir fuertes críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el más mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información supuestamente fiable y considerándolos como respuestas válidas.

El mecanismo empleado por Facebook parece claro: recurrir a una serie de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la posibilidad de que el mecanismo no sea suficientemente rápido, y que para el momento en que los equipos de fact checking hayan podido llevar a cabo sus comprobaciones con rigor, la difusión ya se haya llevado a cabo y el daño, en gran medida, ya esté hecho. A su favor, la posibilidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del número de veces que las noticias que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan aprender a etiquetar esas noticias no tanto en términos de la noticia en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

Fake Obama coupEn el caso de Google, el problema fundamental parece partir precisamente de la no aplicación de ningún tipo de inteligencia: los snippets que el buscador destaca en respuesta a ciertas búsquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar precisamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de manera prominente teorías conspiranoicas ante búsquedas como “planea Obama un golpe de estado”, o destaque respuestas planteadas como broma por Monty Python como si fueran una verdadera explicación de por qué razón los coches de bomberos son rojos es algo que deja a la compañía en muy mal lugar, sobre todo después de que su director general, Sundar Pichai, destacase en repetidas ocasiones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el problema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno detrás de otros los diez resultados de una página de resultados o SERP (Search Engine Results Page), sino que tiene que escoger una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el aparato escoge sistemáticamente la respuesta destacada por Google en su snippet y el mecanismo por el que se obtiene ese snippet carece de la inteligencia suficiente para discernir cuándo un resultado proviene de un sitio fiable o de una página absurdamente tendenciosa, el resultado es, en muchas ocasiones, que formulas una pregunta a tu Google Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo completamente la credibilidad de la compañía y de su tecnología – más aún teniendo en cuenta que los usuarios de Google Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de identificar (y de ofenderse) con este tipo de respuestas.

Que Google, compañía con dieciocho años de experiencia en la búsqueda, caiga en un error tan de base como que sus resultados no estén a la altura como para ser leídos por una máquina y suministrados como respuesta única a una pregunta, debería llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el problema de credibilidad que puede llegar a representar si no se corrige de manera rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya más allá de la simple supervisión manual caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los datos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson empieza a decir tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con páginas sensacionalistas o tendenciosas de ínfima calidad, tus respuestas no valdrán nada.

 

Powered by WPeMatico

El servicio al cliente en la era de la web social

IMAGE: Arrow - 123RFSegún suele contarse en la mayoría de los cursos de social media, la primera compañía que decidió invertir en el desarrollo de un sistema de servicio al cliente basado en Twitter fue Comcast, como resultado de la iniciativa personal de un Frank Eliason convertido prácticamente en celebridad a partir de aquella estrategia.

La historia de Comcast, que obvia el evidente hecho de que ya otras compañías utilizaban entonces Twitter para contestar a sus clientes aunque no fuesen tan conocidas o no lo hiciesen de manera tan estructurada, fue detallada por Shel Israel en el capítulo 4 de su Twitterville, y se llevó a cabo mediante una cuenta, @ComcastCares, atendida por múltiples operadores que, en pleno 2008, con una Twitter prácticamente recién lanzada, comenzaban a inventar los códigos y trucos para poder plantear una actividad como el servicio al cliente a través de una herramienta tan minimalista. Cuestiones como el uso de las iniciales como firma de un tweet, o el del fondo para poner la fotografía del operador activo se fueron convirtiendo en práctica común, a medida que discurrían conversaciones e intercambios sobre los problemas de los clientes.

También Facebook, de una manera natural en el curso su evolución, se encontró en un momento dado con un uso bastante habitual como herramienta de servicio al cliente, que fue creciendo a medida que la red social se iba convirtiendo en prácticamente ubicua. Tras la adquisición de WhatsApp, la compañía se planteó que una de las pocas posibilidades que podía tener de poner en valor una compañía que tenía como parte de su misión fundacional el no hacer publicidad ni distraer a sus usuarios con nada que no fuese la comunicación (aquel no ads, no games, no gimmicks garabateado por Brian Acton en un papel destinado a su cofundador, Jan Koum) era plantear su uso como herramienta de servicio al cliente para compañías, una reinterpretación de las prestaciones del call center pero adaptadas a la mensajería instantánea, que los clientes podrían así utilizar para dirigirse a las compañías, como ya habían planteado previamente compañías como Line, Viber o WeChat en el mercado asiático, o la propia Facebook con Facebook Messenger en el norteamericano.

Esa doble posibilidad de interpretación del servicio al cliente, dividida entre el uso de herramientas de social media como Twitter o Facebook o el de herramientas de mensajería instantánea como WhatsApp y similares, planteaba la posibilidad de un uso público, en el que toda la conversación o parte de ella se desarrollaba a la vista de todos los seguidores de la cuenta del usuario afectado, frente a uno privado y mucho más parecido al del call center tradicional, en la que la interacción tenía lugar en un foro privado, con la única diferencia de que se generaba una evidencia escrita. La posibilidad de elegir uno u otro canal, no obstante, aunque existía para el usuario, no era tal para las compañías, que se limitaban a tratar de atender a sus clientes a través de los canales que estos quisiesen escoger. Dado que el servicio al cliente tiende a incidir más en los problemas que en el buen funcionamiento de los productos o servicios, la mayor parte de las compañías habrían escogido seguramente la opción de “lavar los trapos sucios dentro de casa”. Muchos usuarios, en cambio, ante la posibilidad de aplicar un mayor nivel de presión sobre esas compañías ante determinados problemas, o como mínimo, de prevenir a otros usuarios acerca de los mismos en un cierto “ejercicio de solidaridad”, tienden a optar por el uso de canales públicos, que en determinados casos, en función del nivel de popularidad del afectado o de sus seguidores, pueden desencadenar auténticos problemas reputacionales. La opción de no estar o no contestar, en cualquier caso, es casi siempre peor, y genera menciones que, en caso de no ser atendidas debidamente, pueden convertirse en auténticas pesadillas en términos de SEO.

Twitter, consciente de su propuesta de valor como herramienta de servicio al cliente, acaba de presentar una prestación que permite incorporar a los mensajes directos la posibilidad de presentar al usuario el nombre y la fotografía de la persona de la compañía que les está atendiendo, en un intento de hacer que esa interacción tenga unas connotaciones más humanas y personales. La herramienta no es de uso automático y precisa de una integración, pero las marcas interesadas en adoptarla pueden solicitarlo a través de un formulario y, en caso de tener el estatus de verificadas, obtenerlo de manera rápida.

La idea, seguramente, pretende otorgar a las compañías que apuesten por ello una diferenciación con respecto a las que prefieran explorar el uso de chatbots u otras herramientas conversacionales basadas en inteligencia artificial, que se encuentran últimamente en un pico de popularidad derivado de la disponibilidad cada vez más ubicua de sistemas de procesamiento de lenguaje natural cada vez más sencillos, baratos y eficientes. Los chatbots, no obstante, ya no deben ser considerados como aquellos asistentes torpes del pasado que simplemente servían, en el mejor de los casos, para redirigir consultas: ahora, gracias a esas mayores habilidades para reconocer los elementos del lenguaje, permiten gamas mucho más amplias de opciones, y tienen una gran popularidad con segmentos cada vez más amplios de usuarios – incluso aquellos, como habitualmente los más jóvenes, que llegan a preferirlos activamente porque no implican molestar a una persona de carne y hueso al otro lado. Ese factor, unido al interés por no desatender ningún canal potencial de comunicación, lleva a que las distintas opciones vayan a terminar combinándose u ofreciéndose conjuntamente en un buen número de ocasiones. Si creías que ofrecer servicio al cliente era simplemente poner un número de teléfono en tu publicidad, vete pensándolo de nuevo…

 

Powered by WPeMatico

Repensando Facebook

IMAGE: inbj - 123RFLa carta de Mark Zuckerberg, titulada Building global communities, deja claro el proceso mental del fundador de Facebook tras lo que ha supuesto la primera toma seria de conciencia de su nivel de responsabilidad: la de haber servido como colaborador necesario para abocar a su país a cuatro años oscuros bajo el mando de un imbécil como Donald Trump. No, la idea de que Facebook contribuyó a que Trump llegase a la Casa Blanca ya no es “una locura“, sino una desgraciada evidencia.

La carta parece reescribir la misión de Facebook, “dar a la gente el poder de compartir y hacer el mundo más abierto y conectado”, tras las evidencias de que ha sido precisamente esa capacidad la que ha generado que muchos grupos en la sociedad se encerrasen en sí mismos y comenzasen a expresar en sus cámaras de eco ideas calificables como antisociales, alimentadas por torrentes cuidadosamente administrados de noticias falsas y odio. La nueva misión, (aún) extraoficialmente definida como “desarrollar la infraestructura social para dar a la gente el poder de construir una comunidad global que funcione para todos”, deja clara la necesidad de redefinir Facebook como una herramienta de cohesión, no de división.

Comunidades que sirvan como apoyo a las personas, que sean seguras, correctamente informadas , cívicamente implicadas, e inclusivas. Aquella red social que nació en un campus universitario y que creció con sus usuarios para convertirse en una herramienta de conexión para sus amigos y familias, toma ahora esa base como cimiento y pretende desarrollar la infraestructura social para el desarrollo de la comunidad. De hecho, la idea de “infraestructura social” se convierte en la más repetida de toda la carta: a lo largo de las 5,800 palabras, se repite hasta catorce veces. 

Para construir esa infraestructura social, Facebook se encomienda al gran oráculo del futuro: la inteligencia artificial. A punto de alcanzar los dos mil millones de usuarios, Facebook quiere dejar claro que si tu idea es cometer un atentado, acosar a otros, incitar al odio o suicidarte, la red se encargará de detectarlo y actuar en consecuencia. La eliminación de una frase tras la primer publicación de la carta que hacía referencia a la monitorización de mensajes privados no oculta que la intención de la compañía es aplicar la inteligencia artificial a la detección de comportamientos antisociales o peligrosos, y proceder a la monitorización personalizada de aquellas circunstancias que puedan merecerlo. Facebook va a seguir siendo una compañia y como tal tiene como fin ganar dinero, pero parece comenzar a aceptar la responsabilidad por la influencia que ejerce sobre las personas, tras constatar mediante experimentos poco éticos que podia influir en el estado mental de sus usuarios.

Una lectura crítica de la carta de Zuckerberg revela claramente una intención política, un intento de sustituir a esos periódicos a los que ya ha privado de una sustanciosa cantidad de ingresos, y una reflexión crítica sobre el papel que su red ha podido llegar a jugar en las últimas elecciones norteamericanas. Como elemento de reflexión, decididamente muy necesario: la próxima vez que, en el país que sea, un político pretenda pervertir la influencia de Facebook inyectando odio y noticias falsas, debe ser neutralizado utilizando todos los medios posibles. El efecto de Facebook está alimentando todo tipo de reflexiones, que van desde las dudas sobre el verdadero valor de las elecciones, hasta las tentaciones epistocráticas o de voto cualificado. Si algo tiene claro el fundador de la red social más exitosa de la historia es que tiene que poner determinados temas bajo control, evitar la perversión de la herramienta y sus usos malintencionados, y que eso lo va a llevar a cabo mediante la tecnología que tiene a su alcance, la inteligencia artificial. Y en ese sentido, creo sinceramente que acierta: dejemos que la inteligencia artificial suplemente la desgraciada escasez de inteligencia natural de muchos.

 

Powered by WPeMatico

Política, noticias y redes sociales

How the new digital grassroots is reshaping politics - The EconomistJames Badcock me cita hablando sobre la interacción entre redes sociales, noticias y política en su artículo en The Economist titulado How the new digital grassroots is reshaping politics, en el que se plantea las posibles formas de lidiar con las noticias falsas en un escenario en el que un porcentaje cada vez mayor de ciudadanos se informa en las redes sociales, lee noticias, las comparte y, en cierta medida, cambia de opinión sobre diversos temas en función de lo que lee.

En palabras de Tim Cook, CEO de Apple, fake news is killing people’s minds, y son precisas respuestas que vayan desde la tecnología y la ley, hasta campañas educacionales masivas que puedan concienciar a los ciudadanos de todos los segmentos sociodemográficos sobre la importancia del problema de las fake news.

Facebook, la misma compañía que se preciaba de haber influenciado la primavera árabe, no puede ya seguir negando su responsabilidad. Un número creciente de norteamericanos la consideran el medio de comunicación en el que se informan de cada vez más cosas a pesar de los esfuerzos de la compañía por negarlo, y ven cómo esos nuevos hábitos de adquisición de información, que podrían servir para dar acceso a noticias más plurales y variadas, para enriquecer puntos de vista y ayudar al desarrollo del pensamiento crítico, se convierten en realidad en campañas planificadas de intoxicación colectiva apoyadas en las características del medio.

No, la respuesta no es simplemente esperar a que las compañías tecnológicas aparezcan con una varita mágica que elimine el problema, porque para solucionar ese problema van a hacer falta muchas cosas más. No es tan sencillo como decir “prohibimos las noticias falsas y echamos a los que las publican”, porque el problema tiene demasiados matices importantes que no pueden ser simplemente ignorados o minusvalorados. Va a ser necesario que desarrollemos nuestro sentido crítico y nos convirtamos en fact checkers a tiempo parcial, al tiempo que nos preparamos para una era en la que el activismo será más necesario que nunca.

 

Powered by WPeMatico

Las noticias falsas como reto tecnológico

Pope endorses Trump (FAKE)Mi columna en El Español de esta semana se titula “Noticias y redes sociales“, y vuelve a incidir sobre el tema de las noticias falsas diseminadas a través de redes sociales, tratando de plasmarlo como un reto que la tecnología tiene que solucionar, fundamentalmente tratando de reconstruir los mismos sistemas que existen en el mundo tradicional.

Las soluciones a problemas complejos no suelen ser sencillas. Pretender luchar contra las noticias falsas simplemente censurando su circulación choca con el hecho de que, a lo largo de muchas décadas de existencia de los medios de comunicación, las noticias falsas y sensacionalistas no han desaparecido, y confirman una industria que factura millones y tiene un público fiel. Sin embargo, en el mundo de la comunicación tradicional, a pesar de que existen decenas de medios sensacionalistas dedicados a inventarse conspiraciones, noticias falsas y rumores absurdos de todo tipo, la influencia de las noticias sensacionalistas no suele trasladarse a los medios considerados serios: las dos órbitas se encuentran razonablemente compartimentadas, lo que lleva a que quien consume basura, en general, sabe que lo está haciendo, y la información que aparece en ese circuito, por l general, no sale de él y limita así su influencia.

Ese es el sistema que, en la reinvención de las noticias a la luz de las redes sociales, falta por desarrollar: no se trata de intentar impedir la circulación de noticias falsas, porque tienen su público y ese público tiene derecho a consumirlas, pero sí de detectarlas, identificarlas y etiquetarlas como lo que son, de restringir su circulación por vías algorítmicas, y de evitar que tengan un incentivo económico directo excluyéndolas de los mecanismos de publicidad.

Prohibir que un tabloide sensacionalista como Daily Mail sea utilizado como fuente de referencia en Wikipedia es razonable dada la naturaleza de la publicación, una enciclopedia, y sin duda, no será el último medio que recibe tal “distinción”. Que Wikipedia, hace años denostada por algunos como una enciclopedia supuestamente no fiable, se haya consolidado como la mejor, más completa y más actualizada enciclopedia de todos los tiempos y pueda ahora convertirse en juez que toma decisiones y sanciona qué publicaciones pueden o no pueden utilizarse en sus referencias es un caso claro que demuestra que, sobre las bases de la red y los procesos sociales, pueden construirse mecanismos que superen claramente en generación de valor a los existentes en el mundo tradicional.

A la hora de reconstruir esos sistemas de referencia en las redes sociales, la tecnología va a resultar fundamental: pretender recurrir a editores humanos para etiquetar las noticias falsas y excluirlas no solo es imposible, sino que aporta potencialmente peligrosos elementos de relatividad. La idea parece tender hacia la combinación de sistemas que examinen los patrones de difusión de las noticias, con otros que incorporen el etiquetado de los usuarios, y con bases de datos que incorporen fuentes y noticias calificadas como no fiables. A partir de ahí, limitar la circulación de las noticias etiquetadas como falsas privándolas de acceso a algoritmos de recomendación automatizados, a sistemas de publicidad y a trending topics. Que leas una noticia falsa porque la hayan compartido contigo seguirá siendo perfectamente posible y formando parte de tu libertad individual, pero al menos debería ir convenientemente caracterizada como lo que es, como ocurre en el quiosco cuando vemos determinados medios.

El problema, de nuevo, no es sencillo. En el mundo tradicional, un medio alcanza la reputación de sensacionalista a lo largo de un tiempo de comportarse como tal. En la red, podemos crear un medio cada mañana, darle una apariencia convincente, y publicar lo que queramos inventarnos y convenga a nuestra agenda en tan solo unos pocos clics. En la red, el desarrollo de sistemas de fact-checking capaces de dar respuesta a este tipo de retos va a exigir la coordinación de abundantes recursos, y no va a ser sencillo, pero eso no quiere decir que no deba plantearse: para las redes sociales y buscadores, de hecho, se conforma como el próximo gran desafío. Ejercicios de colaboración como el que se está desarrollando en Francia sobre el que escribí hace unos días pueden aportar marcos interesantes y laboratorios sobre los que tratar de aislar y evaluar este tipo de cuestiones.

Sigue quedando mucho por hacer. Pero al menos, vamos centrando el problema.

 

Powered by WPeMatico

Con Francia en el horizonte…

Elections pre?sidentielles 2017 FranceCon las elecciones presidenciales francesas a la vuelta de la esquina, y dados los resultados de las reciente cita electoral norteamericana, todo apunta a que el país vecino se va a convertir en un auténtico laboratorio tecnológico en el que poner a prueba la influencia de factores como la divulgación de noticias falsas y su impacto en el proceso electoral.

Facebook acaba de anunciar el lanzamiento de un filtro para noticias falsas específico para Francia, al tiempo que se une a Google y a ocho grandes medios franceses para intentar poner en marcha herramientas de verificación de noticias. La idea es que herramientas como CrossCheck, desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos, puedan ser utilizadas en conjunción con bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; por Libération, en la que se compilan noticias positivamente identificadas como falsas; o por otros medios, con el fin de combinar esa información con reportes de usuarios y otro tipo de feedback, y reducir la difusión de esas noticias en los algoritmos de redes sociales y buscadores. Según algunos de los medios implicados, fue precisamente ese compromiso de las empresas online como Facebook para reducir la circulación de noticias falsas en sus algoritmos de recomendación lo que les animó a participar en la iniciativa.

En los Estados Unidos, Facebook ha solicitado la colaboración de terceros como Snopes, PolitiFact o la herramienta de fact-checking de The Washington Post para, combinado con el feedback de los usuarios, tratar de limitar la difusión de ese tipo de noticias falsas y etiquetarlas como tales.

El problema de las noticias falsas en los entornos en red es, por un lado, la ausencia de referencias válidas para juzgar su credibilidad. Con el valor de las cabeceras periodísticas en plena crisis, muchos medios online han pasado a ocupar un lugar creciente en la dieta informativa de los ciudadanos, pero junto con medios que lo hacen muy bien y desarrollan un periodismo de nivel, surgen otros que se aprovechan de las escasas barreras de entrada del canal online para intoxicar, inventar o difundir noticias falsas vinculadas a agendas políticas concretas, con el agravante, además, de contar con incentivos generados por la propia difusión de esas noticias en redes sociales y buscadores. La exclusión de las páginas identificadas como de noticias falsas de los mecanismos de publicidad de Google y Facebook es un primer paso importante porque reduce el incentivo económico de generarlas, pero es tan solo un primer paso de muchos más que hay que dar. El estudio de los patrones d difusión de las noticias falsas, por ejemplo, es otra herramienta importante de cara a prevenir su circulación, y presumiblemente fue una de las razones principales que llevó a Facebook a adquirir CrowdTangle, una herramienta de analítica social, el pasado noviembre.

Por otro lado, las redes sociales juegan un papel de “cámara de eco” en las que los ciudadanos, llevados por los mecanismos sociales que les llevan a reunirse preferentemente con otras personas que piensan como ellos, sienten que todo su entorno refuerza sus creencias y las priva de los habituales frenos sociales, generando una radicalización que tiende a favorecer a opciones que, sin esos mecanismos, serían meramente marginales. El problema, lógicamente, es cómo frenar las noticias falsas sin convertirse en una especie de “árbitro de la verdad” que decide lo que es cierto y lo que es falso, una cuestión que ya le costó a Facebook múltiples críticas en ese sentido y una reunión de urgencia con políticos conservadores cuando algunos de sus editores afirmaron aplicar criterios con sesgo político a la hora de decidir qué noticias se convertían en trending y cuales no. Según muchos, fue precisamente el miedo a que se relacionase a Facebook con una red hostil a las ideas conservadoras lo que hizo que la compañía no hiciese suficiente a la hora de detener la difusión de noticias falsas en las pasadas elecciones norteamericanas.

¿Son realmente las redes sociales total o parcialmente responsables del resultado de las últimas elecciones norteamericanas? ¿Son los lectores que solo leen lo que quieren leer, lo que les hace sentir bien o lo que coincide con su visión del mundo? ¿Un efecto combinado de ambas cosas? Mientras algunas noticias son claramente falsas desde un punto de vista puramente factual, en muchos otros casos, los matices no son tan sencillos, además de mezclarse con recursos como la sátira o el humor que no deben ser, en principio, objeto de censura, pero que dificultan la tarea de identificación. Si los mecanismos basados en la actuación de editores humanos tienen el problema de la arbitrariedad, y los desarrollados a partir de algoritmos de inteligencia artificial son complejos y con posibilidades de fallar, la alternativa parece ser combinar varios mecanismos a modo de indicadores y optar por metodologías mixtas en las que se añadan al feedback y al etiquetado por los usuarios, y a los patrones de difusión que pongan bajo sospecha todo aquello que experimente una difusión especialmente rápida. Para nada un problema trivial. Y todo indica que las próximas elecciones francesas se disponen a ser, en muchos sentidos, un escenario para muchas pruebas relacionadas con este tema.

 

Powered by WPeMatico