Category Archives: Facebook

Auto Added by WPeMatico

Trabajar en una compañía… ¿y vivir en ella?

Willow Campus (click to read more)Los planes de Facebook para la ampliación de su sede en Menlo Park incluyen la construcción de un complejo de 1,500 viviendas, con tiendas, supermercados, farmacias, parques, hoteles y todos los elementos e infraestructura de una pequeña ciudad para la vida cotidiana de sus trabajadores, bautizado como Willow Campus.

Los planes, cuya construcción se prolongaría hasta 2021, están pensados como forma de paliar uno de los principales problemas que los trabajadores de la compañía tienen a la hora de plantearse vivir en la zona de la bahía de San Francisco: los costes de vivienda se han elevado hasta el punto de convertirse en prácticamente irracionales. Una gran cantidad de compañías tecnológicas que pagan sueldos más elevados que la media y que, en muchas ocasiones, incluyen en sus negociaciones con los trabajadores el pago de todo o parte del coste del alquiler, han generado una situación de brutal gentrificación: en lo que hace algunos años eran las peores zonas de la ciudad, hoy no puede vivir ninguna persona con un sueldo considerado razonable.

La solución que Facebook parece estar diseñando es ofrecer viviendas a sus trabajadores en la proximidad de su lugar de trabajo: unos 225 apartamentos, un 15% del total, serían ofrecidos en alquiler a precios más bajos que los del mercado, presumiblemente a personas de la compañía. Otros podrían ser ofrecidos de forma abierta, aunque los detalles específicos aún no están claros. El espacio de oficinas que se crearía tampoco está definido si sería para uso exclusivo de Facebook o si se ofrecería a otras compañías. Además, Facebook está invirtiendo decenas de millones de dólares en mejoras de la US101, que sufre fuertes colapsos de tráfico que pueden llevar a tiempos de desplazamiento notablemente elevados.

Lo que Facebook está diseñando es, a todos los efectos, una pequeña ciudad, como puede verse en el vídeo de presentación: más de 160,000 metros cuadrados de oficinas, 1,500 viviendas, casi 12,000 metros cuadrados de superficie comercial, un mall, un centro cultural, un hotel y un centro de visitas… todo un auténtico “Facebookville”, no sé si incluyendo o no una estatua de su fundador 🙂 Una idea que lleva mucho más allá lo que otras grandes compañías han diseñado para sus sedes corporativas: hasta el momento, hablábamos de convertir esas sedes en autenticas ciudades en las que trabajaban decenas de miles de empleados. Ahora, además, muchos de esos empleados podrían directamente vivir en ellas.

La idea de proporcionar a un empleado no solo un puesto de trabajo, sino además, una vivienda en las inmediaciones del mismo parece, en principio, sumamente práctica: un diseño de ciudad llevado a cabo por una compañía como Facebook es evidente que no descuidaría en absoluto las infraestructuras necesarias para sus trabajadores, el ancho de banda o los sistemas de transporte adecuados. La experiencia de estos trabajadores podría convertirse seguramente en muy práctica y funcional, en una suerte de “vida en una burbuja” que muchos considerarían privilegiada, en la que muchas de las interacciones de su vida cotidiana se adaptarían a sus circunstancias. De cara a la atracción y retención de talento, estas compañías serían capaces de ofrecer una auténtica experiencia inmersiva, una solución “todo en uno” que seguramente podría resultar interesante para personas que, de otra manera, tienen que plantearse su movimiento profesional como todo un complejo puzzle repleto de complicaciones.

¿A dónde podría llegar un modelo de este tipo? ¿Qué problemas, ventajas o inconvenientes podría llegar a generar? Mi experiencia en Arabia Saudí, país que está creando nuevas ciudades desde cero conceptualizadas y construidas por una compañía, me lleva a pensar que las ganancias en eficiencia y planteamiento cuando se puede construir una ciudad desde cero son potencialmente enormes, hasta el punto de suponer un replanteamiento de muchos de los elementos de fricción de la vida cotidiana en ciudades tradicionales. ¿Está Facebook iniciando una tendencia hacia el desarrollo de “ciudades corporativas” que ofrezcan a sus trabajadores una experiencia que intenta mejorar las prestaciones de la vida en las ciudades que conocemos? ¿Os veríais viviendo en una ciudad en la que la presencia de la compañía para la que trabajáis es prácticamente ubicua, porque la ha creado y desarrollado esa misma compañía?

 

 

 

This post is also available in English in my Medium page, “Welcome to Facebookville” 

 

Powered by WPeMatico

La paranoia como elemento estratégico

HousepartyMi columna en El Español de esta semana se titula “Facebook y la paranoia“, y trata de explicar la importancia de estar completamente alerta y pendiente de las variaciones del entorno, preparado para tomar decisiones si se percibe algún tipo de cambio en las tendencias.

Facebook es el ejemplo perfecto de estrategia basada en la paranoia, en la atención prácticamente obsesiva al entorno y a sus cambios. Para cualquier compañía, desarrollar su actividad dentro del entorno competitivo definido por las redes sociales resulta sumamente complejo: las variaciones de las tendencias son constantes, los cambios en los gustos y las preferencias, los nuevos entrantes… hoy estás en la cresta de la ola, mañana te han olvidado.

Situaciones de ese tipo las hemos visto con redes sociales como MySpace, que pasó de ser considerada el símbolo de toda una generación y de generar más páginas vistas que Google, a tener un uso prácticamente marginal en cuestión de meses, u otras como Friendster u Orkut, que se encontraron de repente y sin haberlo planeado como sujeto de las preferencias masivas en países como Malasia o Brasil respectivamente, y pasaron de intentar una estrategia global, a no poder hacerlo por ser percibidos como fenómenos locales en los que predominaba muy claramente un idioma o una cultura determinada susceptible de generar procesos de alienación en usuarios de otros países.

No entender este tipo de fenómenos y, sobre todo, su velocidad, llevaron a compañías como News Corp. o AOL a perder varios centenares de millones de dólares cuando, tras adquirir redes como MySpace o Bebo respectivamente por $580 millones y por $850 millones, terminaron malvendiéndolas por 35 o por 10 millones tan solo unos pocos años después. Como en 2012 comentaba Rupert Murdoch en Twitter tras anunciar la venta,

“Many questions and jokes about My Space. Simple answer – we screwed up in every way possible, learned lots of valuable expensive lessons.”

(Muchas preguntas y chistes sobre MySpace. Respuesta simple – la cagamos de todas las formas posibles, y aprendimos muchas valiosas y caras lecciones)

En efecto, las redes sociales definen un entorno tan dinámico, tan cambiante, tan caprichoso y tan inestable, que desarrollar cualquier actividad en él tiene que provocar necesariamente un estrés permanente, una hipertrofia de los sentidos, de la capacidad de alerta. Es un entorno en el que, parafraseando el libro de Andy Grove publicado en 1996, “solo los paranoicos sobreviven“: cualquier cosa puede cambiar en muy poco tiempo, y en muchos casos no debido a una razón fácilmente explicable, sino a una simple moda pasajera o a una percepción difícil de detectar.

Facebook sabe perfectamente en qué entorno opera, y actúa en consecuencia, lo que la ha llevado a encadenar ya trece años de evolución positiva y a una valoración de casi 420,000 millones de dólares. Podemos imaginarnos a su fundador, Mark Zuckerberg, sentado en lo alto de una altísima pirámide, desde la cual puede, con un simple movimiento de cuello, ver lo que hacemos casi dos mil millones de personas en todo el mundo. Qué leemos, qué compartimos, qué comentamos… todo. Desde esa privilegiada atalaya, detectar la creciente popularidad de fenómenos como Instagram, WhatsApp o Snapchat es cuestión simplemente de estar atento, aunque es bien sabido que las señales solo lo son para aquel que está preparado para interpretarlas. Pero en cuanto Mark Zuckerberg vio que algunos segmentos sociodemográficos comenzaban a utilizar esas aplicaciones, supo rápidamente que tenía que hacer algo si no quería verse desplazado en un entorno tan sumamente volátil. Así que lanzó ofertas de compra por las tres, con el resultado ya conocido: se hizo con Instagram y WhatsApp, y vio como Snapchat rechazaba su oferta de tres mil millones de dólares. Desde entonces, ha intentado copiar la funcionalidad de Snapchat en hasta cuatro ocasiones, hasta acertar en la última de ellas, Instagram Stories, que ya ha logrado superar a la propia Snapchat en número de usuarios activos.

En entornos tan dinámicos, ese comportamiento paranoico, esa vigilancia hiperactiva y constante es prácticamente puro sentido común. La imagen que acompaña a esta entrada pertenece a Houseparty, una app de vídeos en grupo lanzada a finales de septiembre del año pasado por los creadores de Meerkat. Houseparty está creciendo en popularidad entre jóvenes en Estados Unidos, Canadá y algunos otros países, que la utilizan para comunicarse en múltiples ventanas de vídeo en tiempo real, que se muestran con una calidad bastante alta. La popularidad aún no es especialmente masiva, es simplemente un fenómeno creciente, pero ayer, comentándolo en una de mis clases, la respuesta de una alumna que la utilizaba habitualmente fue tan sencilla y directa como “it’s supercool!”.

¿Qué hacer en un caso así si estás sentado en esa pirámide y tienes la oportunidad de ver surgir y crecer algo que tiene posibilidades de convertirse en un fenómeno, y que tiene detrás a los fundadores de una app que, además, ya lo consiguió anteriormente? Meerkat fue la primera app que fue capaz de generar popularidad en torno al fenómeno del livestreaming, el vídeo en directo, se convirtió en la sensación del SXSW de 2015, y únicamente cedió en su popularidad ante la competencia de Periscope, una app similar lanzada desde Twitter, que terminó por provocar el cierre de Meerkat.

Facebook lo tiene claro: para tomar decisiones, es fundamental entender el fenómeno. En este momento, es prácticamente imposible saber si apps como Houseparty van a convertirse en un fenómeno masivo o van a ser simplemente algo minoritario, o una moda pasajera que desaparezca en breve. Saberlo implica trabajo de campo, investigación, información. Así, ha lanzado una encuesta a usuarios de entre 13 y 17 años, preguntándoles si utilizan Houseparty u otra app similar, Fam, que se describe como “un FaceTime de grupo”, y proponiendo a esos jóvenes contestar algunas preguntas y formar parte de un focus group en las oficinas de la compañia en Menlo Park, a cambio de un pequeño incentivo económico. Si lo que está en ciernes es un fenómeno masivo, algo que a día de hoy aún resulta muy difícil saber, Facebook quiere estar al tanto y enterarse lo antes posible, porque la decisión resultante puede implicar decisiones como la de lanzar una oferta de adquisición a la compañía o intentar replicar su funcionalidad.

La paranoia se está convirtiendo en un elemento más de la estrategia empresarial. En entornos que se mueven cada vez más deprisa, la paranoia es una consecuencia prácticamente lógica, una línea de defensa fundamental. Pero ojo… se me ocurren cada día más industrias en las que la paranoia se está convirtiendo en un elemento necesario y fundamental. Si crees que esto solo afecta a Facebook, o solo al entorno de las redes sociales, es muy posible que te equivoques. Es más: es muy posible que sea ya demasiado tarde.

Powered by WPeMatico

Google y las adquisiciones

Google: la voracidad de un gigante insaciable - ForbesLucía Caballero, de la edición española de Forbes, me llamó por teléfono para hablar de Google y de sus adquisiciones, de la idea de una compañía que supuestamente adquiere sin parar todo aquello que se le pone por delante, y me cita en su reciente artículo, titulado, “Google: la voracidad de un gigante insaciable” (pdf).

En mi conversación con Lucía comencé intentando poner las cosas en contexto: Google adquiere muchas compañías de muy diversos tipos, sí, pero sigue una pauta que no resulta especialmente llamativa con respecto a otras compañías de su entorno. Las estrategias basadas en la adquisición son muy habituales en escenarios de dinamismo elevado, y la tecnología, indudablemente, lo es. Desde su primera adquisición en febrero de 2001, Google, ahora Alphabet, ha adquirido un total de 207 compañías, y desde el año 2010 ha llegado a adquirir más de una compañía por semana. Pero sus magnitudes resultan razonablemente comparables con las de otras compañías de su ámbito: Facebook ha adquirido 62 compañías tan solo desde el año 2007, Microsoft ha adquirido 202 desde 1987, Amazon, 72 desde 1998, y Twitter, a pesar de no haber generado nunca beneficios, nada menos que 54 desde 2008.

En efecto, Alphabet adquiere más y más rápidamente, con una filosofía de hacerse con aquello que necesita y que o bien no encuentra en un desarrollo de código abierto, o le podría llevar un tiempo diferencialmente más largo desarrollar internamente. Alphabet es fundamentalmente una compañía de ingeniería, con un potencial de desarrollo brutal, y como tal, enormemente pragmática: si adquirir una funcionalidad o un know how determinado va a ser más rápido que desarrollarlo, saca la chequera y lleva a cabo la operación. Pero como tal, lo que posee es una clarísima orientación al resultado: necesito esto, lo adquiero, sin que parezca existir después una estrategia clara de integración de esas adquisiciones o, en muchos casos, siquiera una preocupación por lo que queda de la compañía adquirida o de sus integrantes. Así, es muy habitual escuchar casos de compañías adquiridas por Alphabet que, al cabo de poco tiempo, ven cómo sus fundadores simplemente “toman el dinero y corren”, y en general, las historias de fundadores de compañías adquiridas por Alphabet que hayan desarrollado una carrera directiva en la empresa de Mountain View son más bien escasas.

La estrategia de otras compañías, como Facebook o Twitter, es completamente diferente. Operaciones centradas en hacerse con lo que necesitan, sí, pero destinadas en muchísimos casos a la incorporación de talento, de equipos capaces de seguir con sus planes tras materializar sinergias dentro de la compañía, de dotar a esos fundadores de muchos más medios y potencia de desarrollo para que persigan sus fines, y sobre todo, de integrarlos muy cuidadosamente y motivarlos para evitar un drenaje de talento. Frente al pragmatismo de Google, por acción o por omisión, este tipo de compañías ofrecen una imagen muy diferente, y posiblemente más sostenible en el tiempo.

Sobre el tema, sobre lo que intentamos obtener en las adquisiciones corporativas, sobre las adquisiciones como ciencia o sobre la idea de saber comprar he escrito en numerosas ocasiones, generalmente al hilo de alguna operación de adquisición, y es un tema que considero fundamental en la estrategia corporativa. ¿Es Google, como afirma el artículo de Forbes, “voraz”? Sin duda lo es, y los datos lo avalan de forma concluyente. Pero ¿obtiene la compañía todo el jugo y el provecho que podría obtener de sus adquisiciones? Desde mi punto de vista no es así, y encuentro filosofías de adquisición en otras compañías de la industria que, por planteamiento, me resultan mucho más atractivas, y parecen generar entornos de trabajo y culturas más inclusivas, más enriquecedoras y con más posibilidades de cimentar una ventaja sostenible.

En una compañía como Alphabet, con reputación de cool e innovadora, y con un enfoque enorme a las personas, un planteamiento así de las operaciones de adquisición resulta llamativo, como una cierta mancha en el expediente. Pero también es cierto que a lo largo de los últimos años, hemos ido también pasando de ver a la compañía como un objeto de deseo para cualquiera y un lugar increíble para trabajar, a verla como un sitio que, aunque indudablemente mantenga su atractivo, sí pierde a trabajadores valiosos con cierta regularidad: una compañía que podría llegar a tener problemas, si no para atraer talento, sí para retenerlo. Pero como todos los elementos culturales, hablamos de cuestiones sutiles, subjetivas, difíciles de determinar de manera concluyente, de percepciones que muchas veces responden a situaciones de mercado o a la visibilidad de quienes son adquiridos por la compañía o la abandonan. Es difícil, incluso hablando con trabajadores o ex-trabajadores de la compañía, saber si esos elementos son un fruto del crecimiento y la evolución, si son algo que siempre ha estado ahí, o incluso si realmente existen como tales. Pero, en cualquier caso, pueden alimentar reflexiones muy interesantes sobre la evolución de las compañías en el tiempo.

 

Powered by WPeMatico

Poniendo la basura donde corresponde

IMAGE: Lorelyn Medina - 123RFMi columna de esta semana en El Español se titula “Páginas basura“, y trata de conceptualizar uno de los problemas actuales del periodismo, la abundancia de páginas basadas en el clickbait, el sensacionalismo, el amarillismo y la desinformación, al hilo del reciente anuncio de Facebook de comenzar a “enterrar” en su algoritmo de recomendación de contenidos todas aquellas noticias procedentes de páginas calificadas como de baja calidad.

Las páginas basura son uno de los contenidos que más ha crecido en la web, alimentadas en gran medida por un efecto secundario de algoritmos como el de Google: lo que al principio era un algoritmo interesante basado en la contabilización de los enlaces externos y basado en la traslación a la web del conocido citation index del mundo académico, utilizado desde hace varios siglos, se convirtió, con la popularización de las redes sociales, en una métrica que privilegiaba en exceso lo social sobre la calidad. Peor aún: basándose en métricas como los Likes, los Shares, los retweets, etc., que los usuarios marcaban en muchos casos con un componente muy escaso de introspección o reflexión, lo que debía ser una métrica de relevancia se convirtió, en realidad, en algo que privilegiaba aquella información que más sorprendía, más llamaba la atención o más intrigaba.

El cómo una métrica de relevancia se estropea al pasar a un mecanismo de captación de indicadores supuestamente más democrático es un tema que, como tal, me parece fascinante: en la web de 1990, cuando Google comenzó a escalar en popularidad, las métricas que recogía eran enlaces a páginas con palabras clave (el anchor text) cualificados a su vez en función del número de enlaces entrantes que poseía la página origen, unido a algunos factores más de corrección. Para Larry Page, pasar a la web un algoritmo con el que estaba perfectamente familiarizado, el citation index que le indicaba como estudiante doctoral si un paper académico era o no relevante en función de las veces que aparecía en las referencias de otros papers, fue en realidad una idea genial. El sistema funcionaba: no solo lograba una métrica de relevancia convincente, sino que además, alejaba el control de las manos de los autores de las páginas, lo que lo hacía menos manipulable que los anteriores. Al producirse la popularización de las redes sociales, Google detectó que mecanismos como el Like de Facebook o los trending topics de Twitter podían convertirse en métricas de relevancia más rápidas que la suya, y comenzó a basar su algoritmo cada vez más en este tipo de parámetros. El resultado de privilegiar esas métricas fue una hiperinflación de la web en torno a lo social: las páginas se llenaron de “pegatinas” que pedían el Like, el Share, el retweet o la compartición de todo tipo, y la aparición cada vez más persistente de páginas orientadas a generar esas métricas. A todos los efectos, una concepción errónea de relevancia.

Con el tiempo, Google parece haber ido corrigiendo ese mecanismo: los parámetros sociales llevan tiempo descendiendo en su ponderación, y la compañía parece evolucionar hacia algo como el KBT, del que hemos hablado en otras ocasiones, para determinar una métrica de calidad de las páginas y, consecuentemente, de su relevancia. La consigna es clara: no se puede privilegiar en términos de relevancia a páginas que busquen el clic a toda costa basándose en técnicas que nadie considera bueno privilegiar.

El gran problema de las páginas basura, no obstante, es su heterogeneidad y la laxitud en su definición. Son, en muchos sentidos, como la famosa resolución de aquel juez norteamericano que trataba de explicar si un contenido era o no obsceno con la frase I know it when I see it, “lo sé cuando lo veo”. La medida anunciada por Facebook es, claramente, una manera de intentar determinar precisamente eso: si una página es basura o no, en función de una definición establecida como “páginas que contengan poco contenido sustantivo, cubiertas de anuncios molestos, excesivamente impactantes o maliciosos”. Y si efectivamente lo es, tratar de evitar la posibilidad de que alcance más visibilidad gracias a sus algoritmos.

Las páginas basura son el equivalente en la web del periodismo amarillo y de los tabloides: sin duda, un contenido que tiene sus adeptos, y que en algunos países genera un negocio importante. En su paso a internet, con la disminución de la fricción y con la facilidad para generar métricas de relevancia erróneas, el fenómeno se disparó hasta límites insostenibles. Medidas como las tomadas por Facebook o Google son fundamentales para poner coto a su desarrollo, para mejorar la calidad de la web. El resto de la responsabilidad corresponde al usuario, que si bien debe seguir manteniendo la libertad de poder compartir lo que le venga en gana, debe reflexionar sobre la idoneidad de asociar su imagen con la de páginas de esas características, y desarrollar unas mínimas opciones y criterio sobre la calidad de la información que maneja y comparte.

En cualquier caso, todo indica que las cosas estarán más difíciles para los medios que en su momento, y con una orientación claramente cortoplacista, optaron por ese tipo de tácticas para incrementar su visibilidad. Medidas que tienden a hacer algo muy necesario y positivo: poner las cosas en su sitio y sacar la basura a donde corresponde.

 

Powered by WPeMatico

¿La lenta muerte de Google?

This is how Google will collapse - Startup Grind

El mejor artículo que seguramente leerás hoy es este This is how Google will collapse, publicado por Daniel Colin James en Startup Grind: dentro de lo absurdo que puede resultar hablar de “la muerte” de una de las compañías más valiosas del NASDAQ en un momento en el que el precio de sus acciones está en sus máximos históricos desde que salió al mercado en agosto de 2004, y recordando siempre aquella frase de Ruiz de Alarcón, “los muertos que vos matáis gozan de buena salud”, no cabe duda que los argumentos empleados están razonablemente bien ponderados y que lleva a unas ciertas reflexiones indudablemente interesantes.

El primer argumento parece claro: en la web actual, todos tenemos cada vez más destinos que consideramos directos, a los que acudimos de manera sistemática para cubrir ciertas necesidades. Para las noticias, muchos recurren directamente a unas pocas páginas con las que tienen familiaridad, con cuya estructura y sesgo se encuentran cómodos. Para las compras, además de la omnipresencia de monstruos como Amazon, existen muchos otros sitios a los que acudimos directamente, que consideramos referencia o con cuya logística nos encontramos cómodos. Y así, en muchas categorías más: cada vez parecemos necesitar menos un mapa, y la principal actividad de Google es la de ser el gran vendedor de mapas de la web.

Pero, ¿realmente no necesitamos un mapa? No, en realidad lo seguimos necesitando, porque la web se expande constantemente y a gran velocidad como si fuera el big bang. Pero por otro lado, también es cierto que las ocasiones en las que necesitamos ese mapa, el porcentaje de uso que se refiere a lo que conocemos como tráfico de descubrimiento, se reduce a medida que el uso de la web se hace más habitual, y pasa a predominar un acceso más directo a muchas páginas que consideramos parte de nuestro conjunto de recursos, de nuestra caja de herramientas habitual. Que Google “se haga trampas al solitario” y quiera apuntarse como propios los accesos a los que un día, allá en la noche de los tiempos, llegamos mediante su buscador; o peor aún, los accesos de millones de usuarios inexpertos que teclean direcciones web en la barra de búsqueda, no cambia la cosa. En cada vez más páginas, el tráfico evoluciona hacia un predominio de lo directo o lo social, mientras el tráfico de búsqueda tiende a evolucionar a la baja o como mucho a mantenerse estable. Es más: una de las mejores medidas de la calidad de un sitio, cada vez más, es su porcentaje de tráfico directo y social, no el que obtiene a través del buscador, que suelen ser visitas efímeras y poco interesantes. ¿Es esto preocupante para Google? No lo sé, pero sin duda, es una tendencia que indica algo que ya comentamos anteriormente: el negocio transaccional, el cerrar las ventas, es mucho mejor, más sólido y más sostenible que el intangible negocio publicitario de tratar de convencer a alguien para que compre algo.

El segundo elemento es igualmente evidente, y también lo acabamos de comentar hace muy poco: el auge de los bloqueadores publicitarios. Los usuarios hemos hablado, y lo hemos hecho de la manera más clara posible, instalándonos en masa extensiones para bloquear una publicidad que consideramos mayoritariamente basura. Que ahora Google pretenda “salvar la web” convirtiéndose en el adalid que preinstala un bloqueador publicitario en su navegador no oculta la gran verdad: que su negocio es fundamental y mayoritariamente publicidad, y que ayudar a que los usuarios nos libremos de lo que ellos consideran “la mala publicidad” no va a significar necesariamente que aceptemos la suya, la que ellos consideran “buena publicidad”, supuestamente respetuosa con el usuario. Eso es un “veremos” muy grande, un gran “si” condicional, que podría chocar con elementos de alienación, con un más que posible rechazo sistemático a toda la publicidad, sea del tipo que sea. Después de todo, la conciencia de los usuarios con respecto a la sostenibilidad de los negocios, en la web o fuera de ella, es próxima a cero. Y lo que sí es evidente es que los bloqueadores publicitarios han crecido, se han hecho cada vez más importantes sobre todo en los demográficos más jóvenes y con más educación, y que han pasado de ser un fenómeno “de geeks” a algo cada vez más generalizado, tanto en ordenadores como, cada vez más, en smartphones.

En muchos sentidos, la batalla de la publicidad está resultando mucho más compleja para Google de lo que parecía: Facebook ha conseguido configurarse como el francotirador con la mira más precisa y certera, que mejor y más íntimamente conoce a sus usuarios, y que además, merced al control férreo que mantiene sobre su plataforma, puede resistir un poco más el asalto de los bloqueadores de publicidad – aunque no indefinidamente. Con el formato vídeo, Google parece estar teniendo problemas derivados de anunciantes que vetan su plataforma para evitar que sus anuncios aparezcan al lado de contenidos que consideran censurables, algo que Facebook parece gestionar mejor gracias a un modelo de ubicación de la publicidad sensiblemente diferente. No es lo mismo ver la publicidad de tu compañía al lado de un vídeo de contenido cuestionable, que verla en tu timeline porque algún amigo o alguien de tu red la recomendó, por mucho que ese alguien pueda tener una ideología igualmente cuestionable. A los amigos les disculpamos cosas que en otros podemos considerar inaceptables.

El tercer elemento es menos claro, pero igualmente interesante: cuando Google decide pivotar su modelo de negocio desde aquel simple mobile-first centrado en el canal, hacia el machine learning, a pesar de tener muchísimo sentido, llega tarde. Cuando Google se plantea rediseñarlo todo hacia asistentes cada vez más inteligentes que sepan más de nosotros y nos ayuden mejor en nuestro día a día a través de todo tipo de interfaces, se encuentra con que otro gigante, Amazon, no solo lo hizo antes, sino que además, ha conseguido situarse con su Echo como la estrella que marca la tendencia a seguir, la que tiene el mayor parque instalado, y la que evoluciona más rápidamente, ahora ya incluso incluyendo vídeo. Hemos dedicado un buen montón de entradas a Amazon Echo y a la importancia de la voz como interfaz del futuro, y en este tema, Google no marca el paso, sino que es un simple seguidor que lucha desesperadamente por poder estar a la altura de la empresa de Jeff Bezos. Que, además, como se dedica a vender cosas y no simplemente a publicitarlas, encaja mucho mejor con el nuevo modelo y es capaz de financiarlo de manera más sólida. Y todo ello, manteniendo la vista en otros posibles entrantes, como Microsoft, que parece apuntar a prescindir del dispositivo específico y utilizar el PC doméstico para el mismo fin (una estrategia cuestionable, en cualquier caso… un Echo tiene nada menos que siete micrófonos para escucharte perfectamente bien desde cualquier lugar de la habitación aunque haya música sonando, me parece muy difícil suponer que mi PC pueda llegar a funcionar de una manera mínimamente parecida).

¿Significa todo esto que Google vaya a caer, a desaparecer, a morir, o a ser protagonista de cualquier otro escenario apocalíptico? ¿Que debamos plantearnos, como afirma el artículo, un próximo futuro post-Google? Seguramente no. No acabo de ver a una compañía con los recursos de Google dejándose morir o posponiendo una posiblemente necesaria reinterpretación de su hoja de ruta. Pero sin duda, significa que a pesar de sus resultados financieros y de su impresionante imagen, Google tiene problemas de muy diversos tipos en muy diversos frentes, que tiene que plantearse afrontarlos de manera solvente, y que no parece ser capaz de hacerlo mediante adquisiciones, toda vez que su estrategia a la hora de adquirir, como comentaré mañana al hilo de un artículo de Forbes que me cita al respecto, parece mucho más orientada a “rellenar huecos” que a crear y desarrollar ventajas sostenibles en el tiempo.

No, ser grande y exitoso no libra a nadie, ni siquiera a Google, de tener problemas. Y eso da para una muy interesante discusión.

 

Powered by WPeMatico

Identificando patrones de difusión viral

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.

 

Powered by WPeMatico

La realidad virtual y aumentada como escenario de futuro

Topics F8 2017El desarrollo del f8, la conferencia de Facebook para desarrolladores, ha dejado una cuestión clara y patente: la fortísima apuesta de la compañía por la realidad virtual y aumentada como escenario de futuro. Un interés que ya era evidente simplemente viendo la lista de temas y sesiones dedicadas a ellos en el programa que aparece en la ilustración, pero que además, se está reflejando en el énfasis que la compañía está poniendo a la hora de anunciar sus novedades.

Todo parece indicar que la idea de Facebook es que la realidad virtual y aumentada forme parte del escenario futuro de la compañía. Cuando Facebook comenzó su andadura, el protagonismo fundamental lo tenía el texto, el intercambio de mensajes y las actualizaciones tecleadas en ese formato. A medida que la red social fue incrementando su popularidad, ese protagonismo pasó a las fotografías: nos acostumbramos a ir a Facebook en busca de fotos de las vacaciones, de imágenes, de material gráfico estático de cualquier tipo.

Con el tiempo, el crecimiento del ancho de banda disponible y la popularización del formato, las imágenes cobraron vida, y pasamos a la era del protagonismo del vídeo: una cantidad creciente de secuencias, que llegaron al punto de construir un ecosistema basado en la viralidad que la compañía fue capaz, en muchos sentidos, de liderar. En 2015, Facebook logró convertirse en el lugar que albergaba la gran mayoría de los vídeos que superaban el millón de visualizaciones, en el preferido de los anunciantes que utilizaban el vídeo como formato, y en el líder de una categoría, la de la llamada “publicidad social”, definida prácticamente a partir de la propia actividad de la compañía. La actividad de Facebook, que desafiaba a una YouTube tradicionalmente considerada líder en todo lo relacionado con el vídeo, no estaba exenta de polémica en cuestiones como la reproducción automática de clips para inflar las cuentas de reproducciones o el freebooting, la práctica de tomar vídeos de otras plataformas y subirlos a Facebook.

Ahora, Facebook se está planteando el desarrollo de su próximo ecosistema, y todo indica que va a venir dado por la realidad virtual y aumentada. Una apuesta sin duda mucho más complicada que las anteriores, en las que la compañía se limitaba a dejarse llevar por una tendencia del entorno: la realidad virtual y aumentada se encuentra en una fase todavía muy embrionaria, el número de dispositivos en manos del público es aún escaso, y la oferta de muchos competidores que algunos consideran fundamentales, como es el caso de Apple, está aún completamente por definir. Ante ese escenario, Facebook ha tomado la decisión de lanzarse al agua con todas sus consecuencias, una idea que ya estaba presente cuando, en marzo de 2014, la compañía decidió pagar unos dos mil millones – $400 millones en metálico, 23.1 millones de acciones y un earn-out de $300 millones – a cambio de la propiedad de Oculus VR, o cuando Mark Zuckerberg hizo aquella aparición sorpresa en el Mobile World Congress de Barcelona de 2016. 

Ahora, Facebook pone toda la carne en el asador y apuesta clarísimamente por una estrategia en la que atraer a los desarrolladores es el elemento fundamental: React VR, una plataforma de desarrollo de aplicaciones básicas de realidad virtualSpaces, un producto para que puedas verte con tus amigos en escenarios de realidad virtual (que recuerda enormemente a los avatares de algunas plataformas de gaming); herramientas de modelado 3D para construir escenarios de realidad aumentada; cámaras de realidad virtual; e incluso un equipo de sesenta personas dedicadas a investigar métodos para interpretar nuestras ondas cerebrales y transformarlas en comandos.

Está claro: la realidad virtual y aumentada es la gran apuesta de futuro de la compañía. No es una apuesta repentina, no es un entusiasmo irracional, no es un vaticinio futurista: es un escenario pensado y estudiado durante largo tiempo, en el que la compañía acumula ya una importante experiencia, y en el que confía alcanzar una posición de dominio muy pronto. Eso implica unos niveles de popularización y difusión de la tecnología que hoy parecen aún relativamente lejanos, un escenario que sin duda va a definir todo un ecosistema interesante para muchos. Durante el pasado MWC tuve ocasión de mantener algunas conversaciones con Robert Scoble, que acababa de publicar su libro junto con Shel Israel sobre el tema, titulado The fourth transformation, que vaticina una enorme actividad en este tema, y además de comentar la estrategia de otras compañías en ese escenario, hablaba entusiasmado de su aplicación a prácticamente todos los ámbitos. Mucho ojo: la apuesta de Facebook no es en ningún caso un salto sin red, sino una clarísima apuesta de futuro.

 

Powered by WPeMatico

Asesinatos en vídeo y la responsabilidad de Facebook

FB timeline El pasado domingo, en Cleveland, un individuo utilizó su smartphone para filmar el asesinato de una persona escogida completamente al azar, que caminaba por un parque. Simplemente, detuvo su coche, escogió a una persona de 74 años, y le pegó un tiro, supuestamente para llamar la atención de una mujer. Después, subió el vídeo a Facebook y filmó otro, esta vez en vivo, explicando el anterior y confesando su autoría. En estos momentos hay un enorme operativo policial de cara a la busca y captura del sujeto, aunque en el momento de escribir esta entrada aún continuaba en libertad.

Tras los hechos, se ha desencadenado una discusión sobre la responsabilidad de Facebook en la publicación y diseminación del horroroso vídeo. Se plantea hasta qué punto es la compañía responsable por no eliminar el vídeo más rápidamente, o incluso si se debería cerrar íntegramente Facebook Live hasta que exista una tecnología suficientemente madura como para evitar que vídeos como ese sean publicados.

En la ilustración que acompaña la entrada podemos ver la secuencia temporal de los hechos desde la publicación del primer vídeo, previo al asesinato, hasta su retirada y el cierre de la cuenta del autor de los hechos. En total, un poco más de dos horas. El sistema utilizado por Facebook está basado en las denuncias del contenido hechas por los usuarios, y de la secuencia temporal se deduce que la compañía fue razonablemente rápida y competente a la hora de reaccionar. El vídeo es claramente un contenido que no debería ser hecho público y que obviamente origina un enorme dolor a cualquier persona relacionada con la víctima, pero… ¿cuál es la base de las reclamaciones exactamente? Facebook no puede, por mucho que lo intente, evitar que alguien mate a alguien, y tampoco puede evitar que suba el vídeo a su plataforma: lo máximo que se le puede pedir es que lo retire lo antes posible y que evite su posible redifusión.

De alguna manera, algunos parecen estar reclamando a Facebook, una empresa tecnológica, una responsabilidad que la tecnología, simplemente, no es capaz de abarcar ni lo será durante mucho tiempo. De acuerdo, Facebook, junto con algunas otras compañías como YouTube o Twitter, ha conseguido que todo aquel que tenga un smartphone se convierta potencialmente en una emisora de televisión con capacidad de emitir en directo lo que quiera. Antes, cuando para emitir en directo era necesario tener un costoso equipo, unos enlaces y unas licencias determinadas, ya había discusión sobre qué se podía hacer si, por ejemplo, una cámara recogía escenas inapropiadas o si una periodista se suicidaba en directo. Ahora, esas discusiones deberían ser idénticas: ¿qué debe hacer Facebook? Nada. Intentar que sean retiradas lo antes posible, y que no vuelvan a ser redifundidas. Hacer responsables a las empresas tecnológicas de todos los males del mundo es absurdo y no va a ningún sitio: esos males ya estaban allí mucho antes de que las empresas tecnológicas apareciesen en la escena, y desgraciadamente, seguirán estando después de tal aparición.

Ningún sistema de machine learning puede evitar que alguien emita en directo o suba a una plataforma un vídeo de un asesinato. Se podría intentar llegar a reconocer ciertos patrones, pero la tarea es enormemente compleja y, aún así, habría infinidad de circunstancias en las que un asesinato podría no parecerlo, resultar confuso o dar lugar a un falso positivo. Pedir a la tecnología que haga algo imposible es típico de quienes no entienden nada de tecnología, y un recurso fácil cuando se pretende que un nuevo escenario es culpable de algo que no nos gusta. No, a nadie le gusta que se mate a personas inocentes ni que eso pueda ser publicado en un vídeo, pero Facebook, siempre que actúe con prontitud para retirar esos contenidos y evitar su redifusión, no es culpable de nada. Las herramientas solo definen escenarios, lo que los actores decidan hacer en ellos es responsabilidad de ellos mismos.

Podríamos llegar a pensar, incluso, que la posibilidad de emitir en directo algo como un asesinato podría llegar a funcionar como un perverso incentivo a la comisión del mismo. Una mentalidad de ese tipo es la que a otro nivel lleva, por ejemplo, a los responsables de retransmisiones deportivas, a escoger cámaras que miran hacia otro lado cuando alguien salta al campo buscando “su minuto de gloria”: si privamos a esa persona del supuesto “privilegio” de aparecer en directo ante millones de telespectadores, podremos llegar a desincentivar su comportamiento (aunque muy posiblemente sea suficiente con el incentivo que suponen los miles de espectadores presentes en el propio evento). Sin embargo, incluso en esa comparación, la conclusión se sostiene: ni las televisiones son consideradas responsables de nada, ni se les pide nada más que el que intenten, en la medida de lo humanamente posible, no mostrar los hechos.

Facebook, dentro de sus posibilidades y entendiendo, lógicamente, que no tiene un realizador ni un director al pie del cañón para cada vídeo que es subido a su plataforma o emitido en directo, pone todos los medios lógicos a su alcance para intentar minimizar el tiempo que un vídeo inapropiado se mantiene a la vista de los usuarios. Eso supone tener personas preparadas 24 horas al día, 7 días a la semana para recibir denuncias de usuarios y tomar una rápida decisión sobre su posible retirada, evitando falsos positivos y tratando de hacerlo lo mejor posible. Si dentro de unos medios razonables, se puede minimizar ese tiempo desde las dos horas del pasado domingo por la noche a tan solo media hora, genial. Pero mucho me temo que, por el momento, eso vendrá de incrementar el número de supervisores humanos disponibles, no tanto del desarrollo de algoritmos de machine learning (aunque algo, posiblemente, puedan hacer). El momento en que una plataforma sea capaz de detectar que en un vídeo se está cometiendo un asesinato o un hecho violento y decida, de manera autónoma, interrumpir su emisión está aún muy lejano. Hablamos de tecnología, no de magia.

Como tantas otras posibilidades convertidas en realidad por la tecnología, el lifestreaming no es ni bueno ni malo: lo es el uso que se haga de el. Por cada uso siniestro o execrable que se hace de una tecnología así, pueden buscarse mil ejemplos de posibles usos positivos. ¿Se ganaría algo eliminando Facebook Live porque cualquiera podría hacer algo así, o limitando su uso únicamente a determinados usuarios? Seguramente, perderíamos más de lo que pretendíamos ganar. Demonizar a Facebook porque su plataforma fue utilizada por un asesino para mostrar su crimen al poco tiempo de cometerlo es absurdo, y equivalente a culpar al fabricante de cuchillos por los robos o asesinatos que se cometen con ellos. Los hechos son terribles y dolorosos, sí. No es bueno que se muestren en público, de acuerdo. Pero no se puede exigir a Facebook más responsabilidad que la que tiene: eliminar el contenido lo antes posible con los medios humanamente a su alcance, y evitar su redifusión.

 

Powered by WPeMatico

Facebook Town Hall: activando la democracia

Facebook Town Hall

Facebook pone en marcha en los Estados Unidos su anunciado Facebook Town Hall, la posibilidad de utilizar Facebook para ver quiénes son los representantes de los ciudadanos en las distintas instituciones, y conectar con ellos a través de sus páginas en Facebook con el fin de hacerles llegar sus preocupaciones, peticiones, protestas, etc.

El desarrollo de Facebook tiene muchísimo sentido en democracias en las que existe un vínculo directo entre los ciudadanos y sus representantes, frente a aquellas en las que los representantes son simplemente elegidos por el líder de un partido que los presenta a los electores en forma de listas cerradas. En democracias como la española, más calificables como de partitocracias, el vínculo entre representantes y representados se encuentra completamente diluido: el ciudadano vota a unas siglas, a un partido, no a una persona en concreto, y dado que su representante no es decidido por ellos sino por el presidente de dicho partido, comunicarse directamente con él tiene muy poco sentido. De hecho, muchos diputados o senadores españoles tienden a “protestar” cuando reciben un número que consideran excesivamente alto de correos electrónicos de los ciudadanos, que consideran imposibles de gestionar. En los casos en los que los representantes se esfuerzan por contestar, se trata de un esfuerzo voluntarista: en realidad, esos correos electrónicos no tienen por qué proceder de los ciudadanos de su circunscripción, y aunque el político podría llegar a mejorar su reputación o a generar cierta afinidad gracias a ese comportamiento, su designación para representar o no a esos ciudadanos o a los de otra circunscripción no depende de su comportamiento o acciones, sino de la voluntad o necesidades de su partido.

En países como los Estados Unidos o el Reino Unido, en los que los ciudadanos escogen directamente a su representantes en cada una de las instituciones, ofrecer a esos ciudadanos una forma de conectar con ellos tiene todo el sentido del mundo. Los representantes perciben perfectamente la importancia de ese vínculo, y se ven obligados a pensar en las consecuencias de ejercer acciones que sus votantes puedan considerar una mala representación de sus intereses. Igualmente, tienen que pensar constantemente en la atención que ofrecen a esos votantes: representantes que no contestan a los ciudadanos a los que representan o que no lo hacen adecuadamente descienden rápidamente en sus preferencias, lo que crea un incentivo a mantener el vínculo directo. De hecho, una buena parte de la oficina de un representante político suele estar dedicada al desarrollo de infraestructuras para gestionar ese diálogo con sus ciudadanos.

Los ciudadanos, en este tipo de democracias, pueden clasificarse en función de su nivel de actividad política. Aquellos que desarrollan una actividad política consciente e informada tienden no solo a votar en las elecciones, sino a hacerlo escogiendo a un representante en concreto que consideran que defenderá sus intereses adecuadamente, y valoran la posibilidad de poder mantener una comunicación con ese representante si consideran que existe una necesidad para ello. Pero incluso aquellos ciudadanos que no votan o que no mantienen un nivel de información adecuado pueden encontrar valor en una herramienta que les permite saber quiénes son realmente sus representantes, aunque no hayan sido votados por ellos, por el hecho de residir en un lugar determinado, y mantener su posibilidad de influenciarlos o de demandarles explicaciones.

¿Hasta qué punto existe una madurez en la relación entre representantes y representados que evite que ese supuesto diálogo no se desarrolle en forma de conjunto de gritos? Depende en gran medida de las acciones del representante en cuestión, tanto de su sentido, como de su capacidad de explicarlas de una manera adecuada. En cualquier caso, el desarrollo de una herramienta de este tipo solo puede contribuir de manera positiva, facilitando que dicha relación evolucione y se haga más útil con el tiempo. En el fondo, Facebook Town Hall solo refleja que en estos tiempos, Facebook se ha convertido en el canal a través del cual muchos ciudadanos participan y se informan, de manera que está en la situación de poder ofrecer tanto a los ciudadanos una herramienta cómoda, como a los representantes una manera de gestionar esa relación bidireccional. Algunos, de hecho, han calificado Facebook Town Hall como “lo mejor que ha hecho la compañía“. Y a mí, desde la distancia de una partitocracia como la española en la que Facebook Town Hall no tendría ningún sentido, decididamente me lo parece. De hecho, me genera una buena dosis de envidia.

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico