Category Archives: El Español

Auto Added by WPeMatico

El necesario replanteamiento de las ciudades

IMAGE: RonfromYork - 123RFMi columna en El Español de esta semana se titula “Replanteando la ciudad” (pdf), y hace referencia a los cambios que empiezan a verse en cada vez más ciudades – de manera tímida por su relativa impopularidad entre los residentes – dentro del llamado “urbanismo táctico“, un término paraguas que hace referencia a acciones de rápida intervención, tales como el replanteamiento de espacios públicos, la introducción de elementos que desincentiven el uso del vehículo o las restricciones en determinadas zonas.

Un número cada vez mayor de ciudades empiezan a interpretar que diseñar sus espacios en torno al automóvil fue un error, que genera situaciones completamente insostenibles, y lo que es peor, que impide el desarrollo de soluciones de transporte que podrían ser muy adecuadas y pone en peligro a los ciudadanos. La reciente muerte de un ciclista en Madrid arrollado por una furgoneta es tan solo un caso, pero prueba que desplazarse por las ciudades actuales en bicicleta supone un auténtico peligro para la integridad física. Elementos que durante generaciones hemos considerado una parte fundamental de la ciudad, como la posibilidad de aparcar ocupando espacio en la vía pública, o la de repartir mercancías a cualquier hora simplemente deteniéndose delante de un establecimiento, precisan una completa remodelación para adecuar las ciudades a una nueva filosofía, a un diseño persona-céntrico, no automóvil-céntrico.

Calles colapsadas por vehículos aparcados en ambos lados, convertidas en garajes a cielo abierto, con una dedicación del espacio que carece de ningún sentido, circulación detenida o dificultada por vehículos de reparto o reducción efectiva del espacio destinado a las personas para privilegiar el espacio destinado al aparcamiento son situaciones que, desgraciadamente, todos nos encontramos en nuestro día a día en el entorno urbano. Poner las ciudades al servicio de las personas exige tomar decisiones complejas, con explicaciones que no gustarán a muchos. Restringir zonas completas al tráfico rodado, por ejemplo, prohibir el aparcamiento en superficie o designar ventanas de reparto logístico fuera de las horas diurnas son acciones que se encuentran con una contestación inmediata por parte de los vecinos afectados, pero parten de una cuestión fundamental: pagar unos impuestos no habilita a quien lo hace para apropiarse de un espacio público en una acera que podría ser dedicado a usos mucho más razonables, del mismo modo que favorecer el comercio local no pasa necesariamente por colapsar las calles con vehículos de reparto aparcados en doble fila, una función necesaria pero que debe desarrollarse necesariamente en horas valle, donde no comprometa otras actividades.

Ese tipo de acciones responden a una nueva realidad: las ciudades y los automóviles se han convertido en una mala combinación, en una trampa mortal e insostenible de congestión, polución y accidentes, y es preciso adecuarlas para que respondan a ello. Las acciones que habrá que tomar tendrán que ser valientes, decididas e inequívocas, desincentivando el uso del vehículo privado, recuperando el espacio destinado a aparcamiento en todas las calles para destinarlo a otros usos, replanteando zonas enteras para evitar que sean utilizadas como garajes, y favoreciendo medios alternativos de transporte que permitan prescindir del vehículo privado en un número cada vez mayor de ocasiones. ¿Puede una ciudad funcionar sin coches? No de manera radical, pero sí puede aproximarse progresivamente a un futuro en el que vivir en ella suponga que prescindir del vehículo privado no sea un castigo, sino una cuestión de lógica económica, en la que tener más automóviles que plazas de garaje en las que aparcarlos no sea posible, en la que el desplazamiento por la ciudad pueda llevarse a cabo con medios más razonables, económicos, versátiles y eficientes, y en la que los espacios urbanos pasen a funcionar de una manera mucho más lógica y orientada a las personas.

Pasar de esas iniciativas tímidas a acciones más decididas exige un cambio de mentalidad, y sin duda, va a costar, posiblemente toda una generación. Pero es fundamental empezar, superar esas primeras reacciones de impopularidad, y explicar las medidas adecuadamente. Las ciudades del futuro serán muy distintas a las que hoy conocemos. Y tendrán, sin duda, mucho más sentido.

 

 

 

This post is also available in English in my Medium page, “Why we need to rethink our cities, now” 

 

Powered by WPeMatico

Políticos que no entienden la red

IMAGE: Mykhaylo Palinchak - 123RFMi columna en El Español de esta semana se titula “El error de Theresa May” (pdf), y habla sobre la dirigente conservadora británica que acaba de ver esta noche cómo su adelanto electoral se traducía en una pérdida clara de votos y escaños que resulta en una situación de “parlamento colgado“, y sobre su trasnochada visión con respecto a la seguridad.

Hay muchos dirigentes políticos que pretenden adoptar una posición dura con respecto al terrorismo. Ese tipo de posiciones son habitualmente jaleadas por unos seguidores que buscan algún tipo de “magia”, de solución a sus problemas de inseguridad ciudadana, de actitud de “hermano mayor que te protege”. El problema es que ese tipo de soluciones duras, por mucho que algunos puedan pensar, no siempre son necesariamente las más acertadas. Cuando además, esas supuestas medidas duras se convierten en una manifiesta pérdida de derechos de los ciudadanos, la cuestión se vuelve todavía más compleja, porque era precisamente esa pérdida de derechos, esa situación de privación de libertades básicas y esa erosión de los derechos humanos lo que los terroristas pretendían conseguir. Si, para terminar de estropear el tema, algunas de esas medidas no sirven para nada y revelan un desconocimiento total del funcionamiento de la red, la cosa termina por prácticamente descalificar a un político. O debería.

Theresa May reaccionó al último atentado en el puente de Londres con un enough is enough y unas declaraciones en las que afirmaba que “si las leyes de protección de los derechos humanos interferían en el control del terrorismo, las cambiaría“. Unas declaraciones en tono duro que pretendía que sirviesen para elevar su popularidad, en la línea de otros tantos políticos británicos conocidos por adoptar posiciones duras en momentos difíciles. Sin embargo, las ideas de Theresa May tienen un problema: el primero y más evidente, que las cosas no terminan cuando la política de turno dice “enough is enough”, sino cuando se buscan soluciones genuinas y reales a los problemas. Es muy posible que el problema actual no tenga una solución clara, o incluso que se esté planteando en esos términos por vez primera en la historia, pero lo que decididamente no va a solucionarlo es el enésimo intento de incrementar la vigilancia y el control en la red.

Nunca en la historia hemos vivido un momento en el que las estrategias de los terroristas experimentasen una disminución tan brutal de las barreras de entrada. Las necesidades de comunicación y coordinación para llevar a cabo un atentado terrorista hoy son absolutamente mínimas: la acción puede llevarse a cabo con un simple vehículo alquilado o robado, con un cuchillo de cocina o hasta con un martillo. Esta estrategia de “terrorismo low cost” convierte en inútiles muchas de las estrategias de control utilizadas hasta el momento, y decididamente, hace que cualquier idea de vigilancia sobre aquellos que tienen en su casa un cuchillo de cocina o un martillo sean directamente ridículas, porque todos tenemos uno y sabemos, eventualmente, como utilizarlo. No es preciso entrenamiento ni coordinación alguna para empotrar un coche contra una multitud o para liarse a martillazos con un policía, y tratar de ejercer un control sobre ello sería directamente absurdo, además de, en caso de intentarse, suponer una pérdida injustificada de libertades para todos los ciudadanos.

Con la red pasa absolutamente lo mismo: pretender controlar lo que circula por la red o exigir puertas traseras a las aplicaciones de comunicación es directamente estúpido, algo que solo se le ocurriría a quienes no entienden la red. Simplemente, no sirve para nada, y en cambio, genera una erosión completamente inaceptable en las libertades y derechos de los ciudadanos. No sirve para nada, en primer lugar porque la variedad de herramientas y métodos de comunicación cifrados de manera inaccesible a disposición de los terroristas es ilimitado, y en segundo, porque realmente, para la comunicación que necesitan de cara a la preparación de un atentado, podrían llevarla a cabo mediante soluciones de tan baja tecnología como palomas mensajeras o señales de humo. Mientras May y los suyos se dedican a presionar a las compañías tecnológicas para que les entreguen puertas traseras que debilitan la seguridad de sus productos y que acabarían inexorablemente en manos de delincuentes, los terroristas seguirían comunicándose mediante una llamada de teléfono, un grito o una piedra lanzada a una ventana. La idea de “controlar internet para prevenir el terrorismo” no tiene sentido, y revela, además, un nivel de ignorancia brutal. Y como bien decía el gran y tristemente fallecido Aaron Swartz, “ya no es adecuado no entender cómo funciona internet”: la disculpa de que esas tecnologías no existían cuando tú naciste o estudiaste ya no funciona, no te excusa de nada. Si eres político, tienes que entender que internet se ha convertido en un elemento central de la vida que no puedes permitirte ir por el mundo tomando decisiones sin entender cómo funciona, porque eso te convierte, como mínimo, en un peligro. O en un idiota, como aquel patético infantilismo de Donald Trump que pretendía “llamar a Bill Gates para que cerrase internet“. No, con esos mimbres no se puede hacer ningún cesto. 

Theresa May y todos esos políticos que no entienden la red son parte de una generación trasnochada de dirigentes que deberían pensar en jubilarse o en dedicarse a otra cosa con menores niveles de responsabilidad sobre la vida de los ciudadanos. O, por qué no, en estudiar un poco y aprender, que no es tan complicado ni tan implanteable, muchos directivos de edades similares a la de Theresa May lo hacen constantemente. La solución al terrorismo podrá venir de muchos sitios, pero jamás vendrá de un incremento en el control de la red. Eso solo sirve para vigilarnos a los que no somos terroristas. Con esas estrategias, el terror siempre gana.

 

Powered by WPeMatico

Machine learning y competiciones

Machine learning competitions

Mi columna de El Español de esta semana se titula “Las máquinas y los retos“, y habla sobre las distintas competiciones que algoritmos de machine learning han ido disputando contra los humanos a lo largo de la historia reciente, al hilo de la nueva partida de Go disputada entre el algoritmo de Google, AlphaGo, y el joven genio chino del Go, Ke Jie, con victoria del primero.

Las dos partidas de Go jugadas por Ke Jie contra AlphaGo se produjeron en un contexto extraño: no solo tenían lugar después de las derrotas sucesivas de Fan Hui y Lee Sedol, otros de los mejores jugadores del mundo, sino que además, su emisión fue censurada por el gobierno chino, en un extraño ejercicio de mala interpretación del orgullo nacional. Para Ke Jie, que ha reconocido que el algoritmo de Google es ya “demasiado fuerte para los humanos” y se ha convertido en una especie de “dios del Go”, la situación es tan curiosa como la de ser utilizado como prueba, como argumento final de la superioridad de la máquina en el juego, un papel experimentado anteriormente por otro escaso puñado de humanos en otros juegos.

La importancia de este tipo de desafíos es relativa. En realidad, hablamos de acciones de comunicación, destinadas a obtener repercusión pública de trabajos que, de no utilizar este tipo de competiciones, sería muy difícil que expusiesen sus avances a un nivel que llegase a todos los públicos. A lo largo del tiempo, hemos ido viendo cómo los algoritmos de machine learning se apropiaban del ajedrez, del Jeopardy, del Go y, recientemente, del póker, sin que muchos se hayan parado a pensar qué era exactamente lo que cada competición pretendía demostrar.

En el ajedrez, la cosa era relativamente sencilla: hablamos de un juego de cálculo de escenarios. Cada movimiento genera un escenario nuevo, y los buenos jugadores son capaces de proyectar mentalmente las jugadas a las que puede dar lugar varios movimientos después. Cuando Kasparov pierde contra el Deep Blue de IBM en 1996, lo único que como humanos tuvimos que reconocer fue que una máquina era ya capaz de calcular escenarios probabilísticos mejor que el cerebro de una persona. Perfecto, cuestión de fuerza bruta computacional. Nada que nos ofenda cuando ya llevamos décadas utilizando calculadoras de mano u hojas de cálculo, y considerándolas no una amenaza, sino una bendición. Hasta aquí, todo bien.

Cuando, en 2011, otro producto de IBM, Watson, gana a los mejores jugadores de la historia en Jeopardy, la cuestión ya empieza a ser distinta. Aquí, una máquina está probando ser capaz de entender las muchas veces retóricas preguntas del Jeopardy expresadas en lenguaje natural, buscar sus posibles respuestas, escoger una de ellas, darle a un botón… y ganar. Después de Jeopardy, sabemos ya que un algoritmo va a ser mejor que las personas entendiendo el lenguaje que las propias personas han inventado, lo que abre paso a todo tipo de innovación en robots conversacionales, chatbots, abogados, médicos haciendo diagnósticos… lo que queramos.

En 2015, un algoritmo ya no de IBM, sino de Google, venció a dos de los mejores jugadores del mundo de Go, desafío que en estos días se acaba de completar con la tercera victoria. ¿De qué hablamos aquí? Este es el desafío que corona la importancia del deep learning. Tras mucho entrenamiento del algoritmo suministrándole todas las partidas de Go jugadas y registradas a lo lago de la historia, Google fue capaz de obtener un jugador muy bueno, pero que unas veces ganaba y otras no. Hasta ahí, había llegado a educar un algoritmo para jugar como los grandes maestros de Go, ni más, ni menos. Fue cuando pasó al deep learning cuando se produjo el diferencial: pusieron a la máquina a inventarse partidas que no se había jugado, a jugar contra sí misma, a explorar escenarios improbables. El resultado fue que en algunas de las partidas, AlphaGo empleó movimientos que jamás un humano había llevado a cabo en partida alguna, que tenían una probabilidad de uno entre diez mil, y logró vencer. Ahora, tenemos que vivir sabiendo que un algoritmo puede desarrollar su inteligencia para una tarea más allá de donde el ser humano ha sido capaz de hacerlo.

Finalmente, llegó 2017, y un algoritmo creado en la universidad de Carnegie Mellon, Libratus, fue capaz de vencer a algunos de los mejores jugadores del mundo de póker. El póker, un juego intrínsecamente humano, en el que varias cartas permanecen boca abajo y solo se puede especular sobre ellas, mientras tenemos como entradas de información el resto de cartas en la mesa y la información que los otros jugadores nos dan con sus apuestas, sean o no faroles. Tras 120,000 manos de póker jugadas a lo largo de veinte días, la victoria de Libratus fue absoluta e incondicional: los humanos no tuvieron ninguna posibilidad. ¿Qué significa esto? Sencillamente, que una máquina ya es capaz de analizar una situación de información imperfecta, sometida a incertidumbre, y puede tomar decisiones en ella con mejores resultados que los que podría obtener un humano. Eso mismo, tomar decisiones en entornos de información incompleta o imperfecta, incluida posiblemente información falsa, es lo que hace un directivo en una compañía, lo que yo llevo veintisiete años intentando que mis alumnos aprendan a hacer. Y el enfoque dado por Tuomas Sandholm, creador de Libratus, es precisamente ese: crear un algoritmo de propósito amplio. No está interesado en un algoritmo para jugar al póker, sino en uno capaz de llevar a cabo cuestiones como análisis de ciberseguridad, diagnósticos médicos o negociación empresarial.

Las competiciones y retos empresariales no hay que analizarlas simplemente como la estrategia de comunicación que representan para quien las hace, sino como lo que realmente significan en términos de logros, de demostración de posibilidades, de aplicaciones posibles. Si alguien aún duda de las posibilidades del machine learning, que venga y plantee el siguiente reto.

 

Powered by WPeMatico

La paranoia como elemento estratégico

HousepartyMi columna en El Español de esta semana se titula “Facebook y la paranoia“, y trata de explicar la importancia de estar completamente alerta y pendiente de las variaciones del entorno, preparado para tomar decisiones si se percibe algún tipo de cambio en las tendencias.

Facebook es el ejemplo perfecto de estrategia basada en la paranoia, en la atención prácticamente obsesiva al entorno y a sus cambios. Para cualquier compañía, desarrollar su actividad dentro del entorno competitivo definido por las redes sociales resulta sumamente complejo: las variaciones de las tendencias son constantes, los cambios en los gustos y las preferencias, los nuevos entrantes… hoy estás en la cresta de la ola, mañana te han olvidado.

Situaciones de ese tipo las hemos visto con redes sociales como MySpace, que pasó de ser considerada el símbolo de toda una generación y de generar más páginas vistas que Google, a tener un uso prácticamente marginal en cuestión de meses, u otras como Friendster u Orkut, que se encontraron de repente y sin haberlo planeado como sujeto de las preferencias masivas en países como Malasia o Brasil respectivamente, y pasaron de intentar una estrategia global, a no poder hacerlo por ser percibidos como fenómenos locales en los que predominaba muy claramente un idioma o una cultura determinada susceptible de generar procesos de alienación en usuarios de otros países.

No entender este tipo de fenómenos y, sobre todo, su velocidad, llevaron a compañías como News Corp. o AOL a perder varios centenares de millones de dólares cuando, tras adquirir redes como MySpace o Bebo respectivamente por $580 millones y por $850 millones, terminaron malvendiéndolas por 35 o por 10 millones tan solo unos pocos años después. Como en 2012 comentaba Rupert Murdoch en Twitter tras anunciar la venta,

“Many questions and jokes about My Space. Simple answer – we screwed up in every way possible, learned lots of valuable expensive lessons.”

(Muchas preguntas y chistes sobre MySpace. Respuesta simple – la cagamos de todas las formas posibles, y aprendimos muchas valiosas y caras lecciones)

En efecto, las redes sociales definen un entorno tan dinámico, tan cambiante, tan caprichoso y tan inestable, que desarrollar cualquier actividad en él tiene que provocar necesariamente un estrés permanente, una hipertrofia de los sentidos, de la capacidad de alerta. Es un entorno en el que, parafraseando el libro de Andy Grove publicado en 1996, “solo los paranoicos sobreviven“: cualquier cosa puede cambiar en muy poco tiempo, y en muchos casos no debido a una razón fácilmente explicable, sino a una simple moda pasajera o a una percepción difícil de detectar.

Facebook sabe perfectamente en qué entorno opera, y actúa en consecuencia, lo que la ha llevado a encadenar ya trece años de evolución positiva y a una valoración de casi 420,000 millones de dólares. Podemos imaginarnos a su fundador, Mark Zuckerberg, sentado en lo alto de una altísima pirámide, desde la cual puede, con un simple movimiento de cuello, ver lo que hacemos casi dos mil millones de personas en todo el mundo. Qué leemos, qué compartimos, qué comentamos… todo. Desde esa privilegiada atalaya, detectar la creciente popularidad de fenómenos como Instagram, WhatsApp o Snapchat es cuestión simplemente de estar atento, aunque es bien sabido que las señales solo lo son para aquel que está preparado para interpretarlas. Pero en cuanto Mark Zuckerberg vio que algunos segmentos sociodemográficos comenzaban a utilizar esas aplicaciones, supo rápidamente que tenía que hacer algo si no quería verse desplazado en un entorno tan sumamente volátil. Así que lanzó ofertas de compra por las tres, con el resultado ya conocido: se hizo con Instagram y WhatsApp, y vio como Snapchat rechazaba su oferta de tres mil millones de dólares. Desde entonces, ha intentado copiar la funcionalidad de Snapchat en hasta cuatro ocasiones, hasta acertar en la última de ellas, Instagram Stories, que ya ha logrado superar a la propia Snapchat en número de usuarios activos.

En entornos tan dinámicos, ese comportamiento paranoico, esa vigilancia hiperactiva y constante es prácticamente puro sentido común. La imagen que acompaña a esta entrada pertenece a Houseparty, una app de vídeos en grupo lanzada a finales de septiembre del año pasado por los creadores de Meerkat. Houseparty está creciendo en popularidad entre jóvenes en Estados Unidos, Canadá y algunos otros países, que la utilizan para comunicarse en múltiples ventanas de vídeo en tiempo real, que se muestran con una calidad bastante alta. La popularidad aún no es especialmente masiva, es simplemente un fenómeno creciente, pero ayer, comentándolo en una de mis clases, la respuesta de una alumna que la utilizaba habitualmente fue tan sencilla y directa como “it’s supercool!”.

¿Qué hacer en un caso así si estás sentado en esa pirámide y tienes la oportunidad de ver surgir y crecer algo que tiene posibilidades de convertirse en un fenómeno, y que tiene detrás a los fundadores de una app que, además, ya lo consiguió anteriormente? Meerkat fue la primera app que fue capaz de generar popularidad en torno al fenómeno del livestreaming, el vídeo en directo, se convirtió en la sensación del SXSW de 2015, y únicamente cedió en su popularidad ante la competencia de Periscope, una app similar lanzada desde Twitter, que terminó por provocar el cierre de Meerkat.

Facebook lo tiene claro: para tomar decisiones, es fundamental entender el fenómeno. En este momento, es prácticamente imposible saber si apps como Houseparty van a convertirse en un fenómeno masivo o van a ser simplemente algo minoritario, o una moda pasajera que desaparezca en breve. Saberlo implica trabajo de campo, investigación, información. Así, ha lanzado una encuesta a usuarios de entre 13 y 17 años, preguntándoles si utilizan Houseparty u otra app similar, Fam, que se describe como “un FaceTime de grupo”, y proponiendo a esos jóvenes contestar algunas preguntas y formar parte de un focus group en las oficinas de la compañia en Menlo Park, a cambio de un pequeño incentivo económico. Si lo que está en ciernes es un fenómeno masivo, algo que a día de hoy aún resulta muy difícil saber, Facebook quiere estar al tanto y enterarse lo antes posible, porque la decisión resultante puede implicar decisiones como la de lanzar una oferta de adquisición a la compañía o intentar replicar su funcionalidad.

La paranoia se está convirtiendo en un elemento más de la estrategia empresarial. En entornos que se mueven cada vez más deprisa, la paranoia es una consecuencia prácticamente lógica, una línea de defensa fundamental. Pero ojo… se me ocurren cada día más industrias en las que la paranoia se está convirtiendo en un elemento necesario y fundamental. Si crees que esto solo afecta a Facebook, o solo al entorno de las redes sociales, es muy posible que te equivoques. Es más: es muy posible que sea ya demasiado tarde.

Powered by WPeMatico

Poniendo la basura donde corresponde

IMAGE: Lorelyn Medina - 123RFMi columna de esta semana en El Español se titula “Páginas basura“, y trata de conceptualizar uno de los problemas actuales del periodismo, la abundancia de páginas basadas en el clickbait, el sensacionalismo, el amarillismo y la desinformación, al hilo del reciente anuncio de Facebook de comenzar a “enterrar” en su algoritmo de recomendación de contenidos todas aquellas noticias procedentes de páginas calificadas como de baja calidad.

Las páginas basura son uno de los contenidos que más ha crecido en la web, alimentadas en gran medida por un efecto secundario de algoritmos como el de Google: lo que al principio era un algoritmo interesante basado en la contabilización de los enlaces externos y basado en la traslación a la web del conocido citation index del mundo académico, utilizado desde hace varios siglos, se convirtió, con la popularización de las redes sociales, en una métrica que privilegiaba en exceso lo social sobre la calidad. Peor aún: basándose en métricas como los Likes, los Shares, los retweets, etc., que los usuarios marcaban en muchos casos con un componente muy escaso de introspección o reflexión, lo que debía ser una métrica de relevancia se convirtió, en realidad, en algo que privilegiaba aquella información que más sorprendía, más llamaba la atención o más intrigaba.

El cómo una métrica de relevancia se estropea al pasar a un mecanismo de captación de indicadores supuestamente más democrático es un tema que, como tal, me parece fascinante: en la web de 1990, cuando Google comenzó a escalar en popularidad, las métricas que recogía eran enlaces a páginas con palabras clave (el anchor text) cualificados a su vez en función del número de enlaces entrantes que poseía la página origen, unido a algunos factores más de corrección. Para Larry Page, pasar a la web un algoritmo con el que estaba perfectamente familiarizado, el citation index que le indicaba como estudiante doctoral si un paper académico era o no relevante en función de las veces que aparecía en las referencias de otros papers, fue en realidad una idea genial. El sistema funcionaba: no solo lograba una métrica de relevancia convincente, sino que además, alejaba el control de las manos de los autores de las páginas, lo que lo hacía menos manipulable que los anteriores. Al producirse la popularización de las redes sociales, Google detectó que mecanismos como el Like de Facebook o los trending topics de Twitter podían convertirse en métricas de relevancia más rápidas que la suya, y comenzó a basar su algoritmo cada vez más en este tipo de parámetros. El resultado de privilegiar esas métricas fue una hiperinflación de la web en torno a lo social: las páginas se llenaron de “pegatinas” que pedían el Like, el Share, el retweet o la compartición de todo tipo, y la aparición cada vez más persistente de páginas orientadas a generar esas métricas. A todos los efectos, una concepción errónea de relevancia.

Con el tiempo, Google parece haber ido corrigiendo ese mecanismo: los parámetros sociales llevan tiempo descendiendo en su ponderación, y la compañía parece evolucionar hacia algo como el KBT, del que hemos hablado en otras ocasiones, para determinar una métrica de calidad de las páginas y, consecuentemente, de su relevancia. La consigna es clara: no se puede privilegiar en términos de relevancia a páginas que busquen el clic a toda costa basándose en técnicas que nadie considera bueno privilegiar.

El gran problema de las páginas basura, no obstante, es su heterogeneidad y la laxitud en su definición. Son, en muchos sentidos, como la famosa resolución de aquel juez norteamericano que trataba de explicar si un contenido era o no obsceno con la frase I know it when I see it, “lo sé cuando lo veo”. La medida anunciada por Facebook es, claramente, una manera de intentar determinar precisamente eso: si una página es basura o no, en función de una definición establecida como “páginas que contengan poco contenido sustantivo, cubiertas de anuncios molestos, excesivamente impactantes o maliciosos”. Y si efectivamente lo es, tratar de evitar la posibilidad de que alcance más visibilidad gracias a sus algoritmos.

Las páginas basura son el equivalente en la web del periodismo amarillo y de los tabloides: sin duda, un contenido que tiene sus adeptos, y que en algunos países genera un negocio importante. En su paso a internet, con la disminución de la fricción y con la facilidad para generar métricas de relevancia erróneas, el fenómeno se disparó hasta límites insostenibles. Medidas como las tomadas por Facebook o Google son fundamentales para poner coto a su desarrollo, para mejorar la calidad de la web. El resto de la responsabilidad corresponde al usuario, que si bien debe seguir manteniendo la libertad de poder compartir lo que le venga en gana, debe reflexionar sobre la idoneidad de asociar su imagen con la de páginas de esas características, y desarrollar unas mínimas opciones y criterio sobre la calidad de la información que maneja y comparte.

En cualquier caso, todo indica que las cosas estarán más difíciles para los medios que en su momento, y con una orientación claramente cortoplacista, optaron por ese tipo de tácticas para incrementar su visibilidad. Medidas que tienden a hacer algo muy necesario y positivo: poner las cosas en su sitio y sacar la basura a donde corresponde.

 

Powered by WPeMatico

Project Sunroof y las magnitudes en energía

Project Sunroof - GoogleMi columna de esta semana en El Español se titula “Lo que nos estamos perdiendo“, y vuelve al tema de la energía solar y la generación distribuida, al hilo de la primera expansión del Project Sunroof de Google fuera de los Estados Unidos, a Alemania, en asociación con una compañía eléctrica clásica, E.ON. Habría mucho que decir sobre la relación entre esa compañía y nuestro país, pero tendríamos que bajar hasta lo más hondo de las catacumbas de la corrupción institucionalizada en España, y no es un tema en el que toque entrar en este lugar y momento.

El Project Sunroof de Google es una manera de hacer tangible la generación de energía solar utilizando Google Earth y Google Maps para, a partir de la dirección de una casa, ser capaz de calcular la insolación que recibe y la superficie de su tejado, lo que permite, trabajando con compañías eléctricas, establecer un marco de los ahorros que podría generar en su factura. Obviamente, la propuesta de valor más clara es para quienes viven en viviendas unifamiliares, pero puede utilizarse también en comunidades para tener una idea de lo que estamos hablando.

En un país como España, con un nivel generalmente elevado de insolación y una anomalía fruto de un nivel de corrupción generalizado como el “impuesto al sol”, que pretende desincentivar la autogeneración a nivel doméstico, herramientas como Project Sunroof resultarían importantísimas para que los usuarios tuviesen una idea real de lo que se están perdiendo al no aprovechar una fuente de energía como el sol. Frente a escépticos trasnochados que siguen aún afirmando que “la energía solar no es rentable si no se subvenciona” – algo que dejó de ser verdad hace mucho tiempo en virtud de la evolución del precio de las placas solares gracias a la ley de Swanson – y que aún toman como norma de fe generalizada aquellos escasísimos casos de fraude en los que los propietarios de granjas solares utilizaban generadores diesel para generar energía por las noches (que en realidad ni siquiera se trataba de un fraude como tal, sino de una reserva de la capacidad de generación provocada por un plazo establecido artificialmente a los propietarios) , la gran verdad es que no aprovechar esa capacidad de generación es completamente absurdo, y que los costes, aparte de lo que la fría cifra que la calculadora de Project Sunroof sea capaz de arrojar, van mucho más allá en términos medioambientales.

En cuestión de expectativas, es fundamental ser realista. Es muy posible que en muchos casos, las posibilidades de la generación solar doméstica no sean suficientes para cubrir todas las necesidades de una casa. En invierno, con menos horas de sol y con una demanda más elevada de electricidad, es muy posible que sea necesario recurrir a una compañía eléctrica para cubrir determinados momentos. Es muy razonable pensar en escenarios de generación distribuida en los que las compañías eléctricas sigan siendo quienes poseen y operan las instalaciones sobre los tejados de muchos hogares, pero incluso en ese caso, habremos ganado mucho en términos medioambientales.

Proyectos como este son muy necesarios en España para entender lo que nos estamos perdiendo. En Alemania necesitan Project Sunroof para calcular lo que se ahorrarían: en España, lo necesitamos para entender cuánto nos están robando unos políticos corruptos y unos impuestos completamente fuera de lugar. Lo necesitamos para evidenciar lo que hay, para generar presión sobre la retirada del impuesto al sol. Lo necesitamos para sacar la basura. Si Google quiere generar una diferencia con su proyecto, España es un buen sitio para lograrlo. Para evidenciar el nivel de cerrazón intelectual y de corrupción al que muchos políticos pueden llegar. A ver si alguna de las compañías eléctricas en nuestro país se decide a recoger el guante de Google y se convierte en socia de este gran proyecto.

 

Powered by WPeMatico

Reinventando la investigación médica

Project BaselineMi columna en El Español de esta semana se titula “Descifrando la vida” y habla sobre Verily, una spin-off de Alphabet anteriormente conocida como Google Life Sciences, dedicada a la investigación en las ciencias de la salud, que se ha propuesto hacer posiblemente una de las investigaciones más ambiciosas de la historia en el ámbito de la medicina: un estudio longitudinal que abarcará a más de diez mil candidatos a lo largo de más de diez años.

La idea de Project Baseline es utilizar la tecnología disponible actualmente para plantear un seguimiento detallado a diez mil personas que vivan cerca de alguna de las tres clínicas incluidas en el experimento (Stanford, DukeCalifornia Health & Longevity Institute). A lo largo del estudio, los voluntarios, que no obtendrán compensación económica alguna y simplemente se beneficiarán de un nivel de monitorización más elevado que el habitual, serán objeto de un riguroso seguimiento y escrutinio que incluirá analíticas y pruebas diagnósticas periódicas de diversos tipo, el uso de dispositivos para registrar su actividad física o de sensores bajo su cama para evaluar la calidad del sueño, secuenciación completa de su genoma, etc. La totalidad de sus datos médicos serán compartidos con la compañía, que podrá además explotarlos mediante alianzas con compañías farmacéuticas o equipos de investigación médica respetando una serie de medidas de protección de la privacidad. 

A lo largo del estudio, un cierto porcentaje de los voluntarios estudiados padecerá dolencias de diversos tipos, que serán estudiadas con detalle para tratar de establecer relaciones causales entre los datos que han ido generando y el origen, evolución o transmisión de su enfermedad. Cualquier persona que conozca con cierto detalle los procesos implicados en investigación biomédica se dará rápidamente cuenta de que con proyectos de este tipo, del mismo modo que con ese Apple ResearchKit del que hablamos hace ahora unos dos años, estamos en realidad reinventando de una manera radical toda la investigación en ciencias de la salud, accediendo a tamaños muestrales antes completamente inimaginables, y a una riqueza, volumen de datos y nivel de detalle a los que anteriormente jamás habíamos podido pensar en acceder. En realidad, lo que estamos planteando es la auténtica transformación digital de la investigación biomédica, con todo lo que ello conlleva: cambios radicales en los canales y la relación con los pacientes, redefinición total de los procesos internos para orientarlos completamente a la generación y análisis de datos, y modelos de plataforma para posibilitar la entrada de distintos socios capaces de enriquecer o beneficiarse mútuamente del proyecto.

¿Qué avances en el campo biomédico van a poder surgir del planteamiento de estudios como este? ¿De qué tipo de adelantos hablamos cuando pensamos en escalar algo como la investigación biomédica a estos niveles, y apalancarla con todas las posibilidades que permite el entorno tecnológico en que vivimos hoy?

 

Powered by WPeMatico

La democracia como connotación negativa

IMAGE: Ivelin Radkov - 123RF

Mi columna en El Español de esta semana se titula “La democracia sobrevalorada“, y trata de elaborar en torno a la peligrosísima idea de que la democracia se ha convertido en una especie de handicap o de problema, en un sistema que penaliza la eficiencia de los países, y que aquellos que deciden que no es necesaria o que puede resultar prescindible pueden obtener ventajas comparativas e incluso, eventualmente, mayores niveles de bienestar económico.

¿Qué país ha sido capaz de generar un producto interior bruto mayor a valores de paridad de poder adquisitivo, o ha sido el más eficiente a la hora de elevar a millones de personas por encima del nivel de la pobreza? China, un país que en efecto, considera la democracia como algo innecesario. El país más grande del mundo en términos de población está gobernado por un partido cuyas decisiones son incontestables, que no se somete en modo alguno a la voluntad popular, y cuyo respeto a los derechos humanos ha estado siempre sometido a un fuerte cuestionamiento. Un país que somete la información a la que pueden acceder sus ciudadanos a un fortísimo nivel de control mediante el mayor sistema de censura, monitorización y vigilancia del mundo, con un ejército de censores y manipuladores mayor que sus propias fuerzas armadas, y que a pesar de todo eso, ha sido capaz de convertirse en referencia en cuestiones como el número de solicitudes de patentes o los estándares de protección de la propiedad intelectual.

China se configura como el nuevo líder mundial ante unos Estados Unidos en retroceso, una Trumpganistan que pretende volver a poner obreros en todas las cadenas de montaje y revitalizar la minería del carbón. Un líder mundial que considera la democracia un ejercicio inútil, caro y absurdo. En términos de estrategia política, un país democrático que garantice la pluralidad de fuentes de información y asegure con los medios adecuados la higiene y legitimidad de sus procesos electorales está, en un mundo hiperconectado, en desventaja frente a países en los que la dieta informativa de sus ciudadanos está severamente controlada y en la legitimidad los que los procesos electorales es un chiste. Nadie más que el gobierno ruso puede influenciar las elecciones rusas, pero es relativamente sencillo para Rusia convertirse en una fuerte influencia en las elecciones norteamericanas. La red, convertida en una herramienta de control interno en manos de autócratas, o peor aún, en un arma para influenciar procesos electorales en países democráticos.

¿A dónde se dirige el mundo cuando los países no democráticos aprenden a extraer y materializar ventajas de la red? Países capaces de justificar los mayores sistemas de control, vigilancia, monitorización y censura de su población, de alimentar las más hipertrofiadas agencias de espionaje, y de desarrollar las más demenciales técnicas de interferencia en los asuntos internos de otros países son los que parecen configurarse como próximos líderes mundiales. La democracia, como sistema discutible y prescindible, como lujo absurdo cuya perversión, convertida en populismo, alumbra criaturas como el Brexit o como Donald Trump. Tenemos un problema.

 

Powered by WPeMatico

La red, los modelos freemium y los planteamientos imposibles

IMAGE: lculig - 123RFMi columna de El Español de esta semana se titula “Entender la red“, y vuelve al tema que toqué hace un par de días, el acuerdo al que una compañía discográfica ha obligado a someterse a Spotify, en virtud del cual los más de cincuenta millones de usuarios de la compañía que no pagan una suscripción y que escuchan (o mejor, soportan) publicidad (que no quieren escuchar) intercalada con la música (que sí quieren escuchar) y que reportan a la compañía unos ingresos de alrededor de $220 millones de dólares dejarán de tener acceso a las novedades del catálogo de sus artistas preferidos hasta que hayan pasado dos semanas de su salida. 

Pongamos las cosas en su sitio: la música vale dinero, y las empresas deben tratar de ser rentables. De acuerdo. Que cincuenta millones de usuarios pretendan escuchar música, es decir, obtener un producto que vale dinero, sin pagar nada por ello, es algo que en principio, suena difícil de sostener. ¿Cuál es la razón, entonces, que sustenta el hecho de que una empresa nativa de internet, fundada en 2006 por dos personas jóvenes que claramente entendían cómo funcionaba la red, trate de acomodar a esos usuarios no dispuestos a pagar en un tramo gratuito financiado con publicidad? Obviamente, la idea no era simplemente “tenerlos contentos” ni “ser generosos”, sino tratar de que un cierto porcentaje de esos usuarios terminase por valorar el servicio lo suficiente como para tomar la decisión de comenzar a pagar por él. He visto ese proceso en numerosas ocasiones: en amigos, en familiares, en conocidos… y sí, existe, no es mitología. Sucede de verdad.

Para obtener algo así, que se llama tasa de conversión y que viene a ser el verdadero sancta sanctorum de muchísimos negocios en la red, el balance es sumamente delicado. Comienza por ofrecer a esos usuarios una oferta de contenido que verdaderamente valga la pena, a cambio de algo que si bien puede resultar relativamente molesto o incómodo (en este caso, los anuncios publicitarios), no suponga para esos usuarios un desprecio o algún tipo de agravio. Según lo que Spotify lleva tiempo investigando activamente (no, esto no es un negocio de “pongo una base de datos con mucha música y espero”… aquí hay una importantísima cantidad de investigación, de estudio y comprensión de patrones y modelos de uso, de propensión al pago, etc.), un usuario puede aceptar escuchar una cierta cantidad de anuncios intercalados con su música, puede entender que esos anuncios provienen del hecho de que no paga una suscripción, y puede valorar ese servicio que le permite acceder cómodamente a la música a pesar de que le someta a un cierto… “martirio”. Si el martirio se vuelve excesivo (es decir, si el número de anuncios crece demasiado), el usuario se irá con la música a otra parte, nunca mejor dicho. Pero si en un momento dado, llevado por sus circunstancias personales, por el hartazgo de la publicidad, por una oferta o por una combinación de los astros, decide probar el modelo de pago… entonces se produce la magia.

Hasta el momento, Spotify ha sido extraordinariamente buena a la hora de generar esa magia. Nada menos que cincuenta millones de personas en todo el mundo han decidido pagar por su servicio sobre un total de cien millones de usuarios totales, lo que la lleva a plantearse que podría llegar a tener resultados positivos por primera vez en este año 2017, once años después de su fundación. Ese tipo de ciclos largos, en los que se pasa mucho tiempo creciendo en facturación pero incurriendo en pérdidas, en los que el negocio se sustenta en un porcentaje relativamente pequeño de usuarios de pago, son habituales en quienes entienden la red: se puede ser rentable, pero hay que aceptar unas ciertas reglas y estructuras de coste que en la red son marcadamente diferentes. Hay que entender la red.

Si los usuarios de Spotify empiezan a ver que la compañía les da muestras de que no son bienvenidos, les hurta determinadas canciones que querían escuchar – de hecho, siendo novedades, no solo querrán escucharlas, sino que muy posiblemente sean el objeto por el cual entraron en Spotify ese día – y de alguna manera, les estropea la experiencia de uso, lo que harán esos usuarios será irse. Empezarán a escuchar música en otros sitios, o la obtendrán a través de descargas irregulares, que por mucho que algunos piensen que pueden erradicarse, está más que demostrado que es completamente imposible. La propensión de esos usuarios “fastidiados” a convertirse a usuarios de pago no crecerá como resultado del “fastidio adicional”, sino que decrecerá, de manera inversamente proporcional al crecimiento del odio hacia la compañía que consideran que les maltrata. Una cosa es ponerte anuncios fastidiosos, algo que ya en cierto sentido forma parte del contrato psicológico con el servicio… pero otra es tratarte como un apestado al que se niega el acceso a las novedades, una parte importante de la propuesta de valor de un sitio de música.

Si Spotify, que entiende la red pero tiene incrustado en su accionariado a una serie de dinosaurios del pasado que no la entienden ni de lejos, tiene problemas con su modelo freemium, ¿qué no tendrán otras compañías que, simplemente, no entienden la red desde el principio? ¿Por qué tantos periódicos, por ejemplo, tienen tantos problemas para convertirse en rentables? Sencillamente, porque tratan a los usuarios como basura. Y resulta enormemente difícil que un usuario al que tratas como basura termine por decidirse a darte un dinero determinado a cambio de nada. Si te dedicas a literalmente martirizar a tus usuarios con formatos de publicidad que no administrarías ni a tu peor enemigo, con trampas demenciales en las que escondes el botón de cerrar, con sonido preactivado, con vídeos que se lanzan solos, con desplegables que te hacen sentir como pisando un campo de minas o con anuncios que tapan las noticias, lo siguiente que puedes esperar es que aquellos usuarios que sepan hacerlo y tengan dos dedos de frente se instalen un bloqueador de publicidad. Simple y llanamente, es una respuesta a una agresión. Si una vez que se lo han instalado, les niegas la entrada, estás añadiendo el insulto al agravio, los estás fastidiando aún más, y es mas que probable que te enseñen un dedo, y no precisamente el dedo de hacer clic en ningún botón, sino otro diferente. Y si aún te extrañas de eso… es que no solo no has entendido nada, sino que además, eres tonto. Así de sencillo. Y aunque no os lo creáis, os aseguro que de esos, hay unos cuantos, y los he visto con estos ojitos a poca distancia en alguna sala de conferencias.

Los modelos freemium son enormemente interesantes. Yo llevo mucho tiempo estudiándolos y analizándolos, y desde hace algo más de un año, soy además miembro del consejo de administración de una compañía que trata de ponerlo en práctica, por el momento con gran éxito. Pero lo fundamental para esos modelos es entender que para triunfar en la red hay que ENTENDER LA RED. Así, con mayúsculas. Si crees que en la red puedes, por ejemplo, obligar a que quien enlaza a tus contenidos – y por tanto te aporta tráfico – te pague por ello, es que no has entendido nada. El enlace es una pieza clave en la red, y atacar la naturaleza del enlace supone ir en contra de la red. Incluso en el caso de que pudieras, recurriendo a políticos ignorantes o corruptos, conseguir que la ley estuviese de tu parte, algo así nunca funcionaría. Si crees que puedes presentar a los usuarios un producto basura, lleno de molestias e incomodidades, y que aún así te apoyen y te soporten estoicamente porque eres “un bastión de la democracia”, deja de beber. Para que una idea funcione en la red, considerando la cantidad de opciones que un usuario tiene al alcance de un clic, tienes que cuidar a tus usuarios, mimarlos, hacerles sentir que forman parte del servicio, ofrecerles una parte razonable de prestaciones cuando no pagan, y darles oportunidades para convertirse al pago cuando lo estimen oportuno o adecuado. Si en lugar de hacer eso te refugias en esa estupidez del “lo quieren todo gratis”, nunca triunfarás.

¿Todo gratis? Yo ya ni sé por cuántas cosas pago en la red, pero son muchas. Mi filosofía es que si algo me ofrece un servicio que de verdad valoro y aprecio, prefiero pagar por él, porque con eso contribuyo a hacerlo sostenible. ¿Es esa la filosofía de todos los usuarios? No, por supuesto que no. Esa filosofía hay que desarrollarla con el tiempo y con la experiencia, a base de consistencia, de buen trato y de propuestas razonables. Para quienes entienden la red, es cuestión de tiempo y de planes de negocio pacientes. Para quienes no la entienden, supongo que será algún tipo de cruzada contra unos usuarios malvados que les odian, que lo quieren “todo gratis” y contra los que luchan encarnizadamente. No, mira, lo siento: con ese tipo de filosofías no se va a ningún sitio. Ni en la red, ni en la vida.

 

Powered by WPeMatico

El futuro de la energía es la generación distribuida

IMAGE: Stanis?aw Tokarski - 123RFMi columna de esta semana en El Español se titula “Autoconsumo y prevaricación“, y hace referencia a la dura carta enviada por la Comisión Europea al ministerio de energía español, exigiendo explicaciones por las múltiples trabas, barreras e impuestos establecidos a nivel legislativo para desincentivar el autoconsumo eléctrico, que no solo son completamente contrarios al derecho europeo, sino que además, suponen un absoluto contrasentido en un país con un nivel de insolación tan elevado como España.

El desincentivo a la autogeneración de electricidad en España es un clarísimo caso de prevaricación, en su definición mas canónica: dictar una resolución arbitraria en un asunto administrativo o judicial a sabiendas de que dicha resolución es injusta. Cuando el presidente del gobierno, Mariano Rajoy, afirma que no elimina el impuesto al sol porque si lo hiciese “se dejarían de recaudar 162 millones de euros anuales vía impuestos” está, en realidad, admitiendo que implantó un impuesto contrario a la legislación europea, que tasa de manera injusta y arbitraria una actividad tan beneficiosa para el medio ambiente y para el bolsillo del ciudadano como la autogeneración y autoconsumo de energía eléctrica, y que además, se niega a dejar de hacerlo porque no quiere renunciar a esos ingresos. 

Que países europeos con tasas de insolación much menores que España estén plagados de placas solares mientras en nuestro país, instalar un tejado solar y un acumulador suponga enfrentarse a un calvario legislativo, regulatorio y fiscal supone un contrasentido tan grande, tan absurdo, que reclama una investigación sobre los motivos que en su momento llevaron a los políticos implicados a legislar de esa manera. Pero sobre todo, urge eliminar ese entramado destinado únicamente a desincentivar un fenómeno, el de la autogeneración y el autoconsumo, que se ha desarrollado de manera impresionante en muchos países y que está sujeto a enormes economías de escala.

En los Estados Unidos, el Project Sunroof de Google, pronto disponible para España, ha determinado analizando sesenta millones de edificios en cincuenta estados que 4 de cada 5 hogares tienen potencial para la generación de energía solar. Es posible que en nuestro país, con una tasa de concentración de la población en núcleos urbanos relativamente elevada, esa tasa sea algo menor, pero en cualquier caso, es fundamental ponerla en valor lo antes posible. La ley de Swanson hace que los paneles solares sean cada vez más baratos, los acumuladores mejoran también su rendimiento, y el desarrollo de nuevos materiales como las tejas solares creadas por Tesla, disponibles en el mercado a partir de abril, lleva a modelos cada vez más eficientes y menos intrusivos. ¿Qué sentido tiene seguir oponiéndose por principio a una generación distribuida que se revela de una forma cada vez más clara como el futuro de la energía?

 

Powered by WPeMatico