Category Archives: General

Auto Added by WPeMatico

¿Invertir en bitcoins?

IMAGE: frbird - 123RFEl pasado martes, en una jornada sobre transformación digital con CEOs de Arabia Saudi en el Hilton de Jeddah que evolucionó hasta convertirse en una sesión de preguntas y respuestas sobre todo tipo de temas relacionados con distintos aspectos de lo tecnológico, uno de ellos me preguntó hasta qué punto podíamos considerar seria la fiebre desatada en torno al bitcoin y el meteórico crecimiento de su valor.

Dar una respuesta a esa pregunta requiere de por sí muchísima precaución, y más si además de no ser un experto en economía o en la evolución de los mercados financieros, tienes claro que estás hablando ante una audiencia selecta que no solo busca con fruición bolsas de rentabilidad para su dinero, sino que además, podría llegar a influenciar de manera sensible el valor del bitcoin si decidiesen de manera coordinada movilizar parte de su dinero en ese sentido.

Así que, tras expresar claramente esas preocupaciones, comenté básicamente dos cuestiones: la primera, muy clara y refrendada por aquel informe de 2013 del Federal Reserve Bank of Chicago, que el bitcoin está basado posiblemente en la solución técnica más elegante que hemos podido conocer hasta hoy para el problema de la creación de dinero y la duplicidad de las transacciones, y que sin duda, está aquí para quedarse. El concepto de las criptomonedas es sólido, al igual que su base transaccional, el blockchain, están aquí para quedarse, y veremos indudablemente un crecimiento asociado a ellas, que afectará tanto a la popularidad y adopción del bitcoin, como a la de otras variedades que propongan soluciones a la cuestión del anonimato. Para entender las razones de la popularidad de las soluciones basadas en blockchain, sigo recomendando el libro de Don y Alex Tapscott, “La revolución blockchain“, cuya edición española tuve la oportunidad de prologar.

La segunda, que por su propia configuración, el bitcoin no será un valor seguro hasta que haya pasado un cierto tiempo que permita estabilizar su valor. En este momento, y ayudado por las noticias de inversiones con rentabilidades fastuosas completamente fuera del alcance de otros instrumentos dentro de la legalidad, el bitcoin es mucho más un valor especulativo que una moneda como tal, y con ese nivel de prudencia debe ser considerado por aquellos que se planteen usarlo como una cosa u otra. Hoy, no hay ninguna comparación posible en términos de volatilidad entre invertir en una moneda determinada y hacerlo en bitcoins, lo que sitúa al bitcoin lejos del ámbito de la inversión en divisas y lo sitúa mucho más en el de la inversión puramente especulativa, además de añadir el riesgo derivado de su curva de adopción. Asimismo, tenemos que tomar en este tema todas las precauciones asociadas a entornos de desarrollo relativamente reciente para evitar riesgos derivados de la delincuencia sofisticada, como páginas falsas en esquemas de tipo phishing o similares que clonen propuestas de inversión.

¿Alguna opinión? ¿Qué habríais contestado ante una pregunta como esa en un foro semejante?

 

Powered by WPeMatico

Las ideas y sus pautas de adopción

IKEA TrådfriSabes que una idea ha llegado a su fase de adopción cuando las señales del mercado te lo indican. Durante más de cuatro años, desde octubre de 2012, llevamos hablando de un producto introducido de manera masiva por Philips: la iluminación inteligente y controlable desde un smartphone u otro dispositivo a través de un puente de comunicaciones, una familia de productos conocidos como Philips Hue. Un rápido vistazo a la página de la compañía ofrece una idea de lo que hablamos, en términos de prestaciones y precios, a aquellos que no lo han probado aún.

En general, la popularidad de las Hue ha ido en aumento: hablamos de un producto con una difusión razonablemente exitosa, que fue considerado en 2012 como Producto del Año por Forbes, y que ha recibido sucesivas actualizaciones por parte de la compañía en 2015 y 2016. La compañía no reporta las ventas individuales de esta categoría de producto sino solo las de Philips Lighting, lo que hace difícil conocer exactamente su nivel de popularidad, pero podríamos asumir que se trata de un producto de relativo éxito en niveles adquisitivos razonablemente elevados, dispuestos a pagar en torno a los dieciocho euros por una bombilla para así poder controlarla remotamente. Hasta hace relativamente poco, esos precios eran sensiblemente más elevados. Como referencia, una bombilla LED de similar potencia en Amazon Basics, estándar y no regulable, cuesta en Amazon Basics en torno a los 4 euros.

El pasado marzo, IKEA lanzó una línea de productos similar, Trådfri (para los fascinados con los nombres en sueco de los productos de la compañía, Trådfri quiere decir simplemente “inalámbrico” 🙂 y ahora han anunciado su compatibilidad con sistemas como Apple HomeKit, Google Home o Amazon Alexa. En su página en España, podemos observar la similaridad de planteamiento, de accesorios y de opciones, pero también de precio: la bombilla más básica está en torno a los veinte euros. Sin duda, que una marca con la popularidad de IKEA ponga en el mercado una línea de bombillas de este tipo es algo que provocará un pico en su adopción a todos los niveles… pero supone, a su vez, una realimentación de la tendencia a través de una realidad: si Ikea no hubiese lanzado esta línea, estaría arriesgándose a perder su posicionamiento dentro del segmento del llamado “hogar inteligente”, “smart home” o home automation.  Y obviamente, no son los únicos competidores, sino únicamente los que más conocimiento de marca poseen.

¿Qué implica que una marca orientada al gran consumo y con una estrategia de precios tan cuidadosamente planificada como la de IKEA ponga una bombilla inteligente en el mercado a un precio tan similar al de su competidor principal y líder hasta ahora de una categoría que prácticamente creó desde cero? Simplemente, que aunque el precio podrá evolucionar con el tiempo, la adopción ya comienza a acercarse a un punto sin retorno, a lo que los competidores asumen como un primer nivel de madurez del mercado, y que a partir de aquí, la siguiente fase es el despliegue masivo. La convergencia en precios y la – relativa – compresión de los márgenes no son otra cosa que un indicador de la previsión de unas ventas elevadas, lo que quiere decir que en no mucho tiempo, muchísimas personas encenderán y apagarán sus luces con su smartphone o con otros dispositivos a través de una app, creando escenas con diversos tonos de color o agrupando determinadas partes de la casa en función de sus necesidades, en lugar de simplemente apretando un interruptor. Estos indicadores simplemente nos están diciendo algo tan sencillo como que, según los datos de los distintos jugadores en este mercado, “a esta idea le ha llegado su momento”.

Leer las estrategias de los distintos competidores en una categoría en función de su momento de entrada en el mercado o de sus políticas de precios es un ejercicio interesantísimo a la hora de evaluar la curva de adopción de una tecnología. Hasta ahora, las bombillas inteligentes eran simplemente un capricho geek. Pronto, las vamos a ver en todas partes.

 

Powered by WPeMatico

¿Es la glucemia el próximo indicador a monitorizar?

IMAGE: Arcady31 - 123RFEn muy poco tiempo, estamos empezando a ver algunas noticias que apuntan al uso de un indicador, la concentración de glucosa libre en sangre o glucemia, métrica completamente familiar y conocida para todos aquellos que padecen o tienen cerca a alguien afectado por algún tipo de diabetes, como parámetro utilizado para evaluar la actividad de personas perfectamente sanas.

En algunas compañías, particularmente en el a veces un tanto distópico entorno de Silicon Valley, los empleados monitorizan activamente su glucemia sin tener ningun problema de diabetes con el fin de evaluar su rendimiento o su actividad, controla su ingesta de alimentos o mantener la obesidad bajo control.

El tema tiene, por supuesto, mucho sentido: como bien saben los diabéticos que llevan a cabo un control exhaustivo, la glucemia es un indicador muy adecuado no solo para saber cuando necesitan insulina o ingerir alimento, sino en general, para evaluar la actividad. Existen correlaciones perfectamente observables entre nivel de actividad o de percepción de cansancio y niveles de azúcar en sangre. El problema, obviamente, es que como parámetro a controlar, la glucemia no parecía especialmente amigable, dado que en la mayoría de los casos, exigía una extracción, aunque fuese minúscula, de sangre, lo que conllevaba un proceso invasivo e incómodo. Por mucho que te digan que puedes controlarte mejor, la idea de andar pinchándose un dedo para extraer una gota de sangre varias veces a lo largo del día no suena atractiva para prácticamente nadie que no necesite hacerlo por una cuestión perentoria de salud.

La semana pasada circularon algunas noticias acerca de Tim Cook, CEO de Apple, al que se ha visto con un dispositivo en su muñeca que lleva a cabo mediciones de glucemia de manera continua y no invasiva. La idea de Apple de convertirse en un aliado para el desarrollo de sistemas de monitorización de la salud de manera preventiva, sus múltiples alianzas con hospitales y aseguradoras y su interés por tener un impacto en el mundo de la salud podrían indicar el desarrollo de algún dispositivo que, efectivamente, permitiese al usuario evaluar de manera cómoda sus niveles de azúcar en sangre, para así tomar decisiones sobre cuando parar para picotear algo, cuándo se es más productivo, o en general, cómo gestionar un parámetro que tiene mucho que ver con los niveles de energía que sentimos o nuestra capacidad de llevar a cabo muchas actividades. Dentro del movimiento conocido como quantified self, la glucemia podría ser, tal vez, el próximo parámetro a monitorizar.

¿Estamos ante un escenario en el que un parámetro utilizado hasta el momento casi únicamente en el tratamiento de una enfermedad, se convierte en algo que resulta interesante monitorizar de manera continua, mediante los correspondientes sensores y apps? El caso anterior fue, claramente, la frecuencia cardíaca. Aunque no sea aún mayoritario, es ya relativamente habitual ver a personas que evalúan su estado de salud o la calidad de su sueño en función de su ritmo cardíaco basal, durante la noche, en algo que en su momento definí como “cardioconsciencia“. ¿Estamos a punto de ver el nacimiento o la popularización de la glucemia como indicador habitual a monitorizar, más allá del ámbito del tratamiento de la diabetes? ¿Tendríais, como usuarios, interés en algún tipo de desarrollos relacionados con algo así?

 

Powered by WPeMatico

Ordenadores sobre ruedas

IMAGE: Franck Boston - 123RFInteresante artículo en Ars Technica sobre el estado del arte en sistemas operativos para automóviles, The state of the car computer: Forget horsepower, we want megahertz!, en el que observar de qué manera se está configurando un panorama desde los inicios del proceso, con una serie de jugadores representativos ahora mismo posicionándose en torno a plataformas como Linux, Android, QNX y otras que solo podemos suponer, como Apple, en un proceso complejo llevado por los fabricantes, con complicaciones como el hecho de que algunos de ellos aún estén apostando y haciendo pruebas no con un sistema operativo, sino con varios.

En muchos sentidos, un automóvil es, cada vez más, un ordenador sobre ruedas. Un conjunto de procesadores, memoria, sensores y módulos de conectividad que recuerda profundamente al desarrollo de la telefonía móvil o de la propia computación, con múltiples sistemas que, de manera progresiva, irán dando paso a un proceso de simplificación, de convergencia en torno a muy pocos actores relevantes. En este momento tan temprano, ya tenemos o podemos suponer múltiples estrategias representativas: plataformas de fabricante, como QNX, un sistema operativo que proviene fundamentalmente de los sistemas integrados o embebidos, propiedad de BlackBerry desde el año 2010, y que sigue el tradicional esquema de licencias y trabajo exclusivo con fabricantes de su propietario; frente a Android con idea de repetir la jugada de constituirse en plataforma abierta con escasas barreras de entrada y (relativa) capacidad de diferenciación a la que los fabricantes pueden recurrir sometidos a unos pocos condicionantes, o supuestamente una Apple que podría optar o bien por un control total y un desarrollo íntegramente propio – algo que no parece probable ahora mismo – o por algún tipo de alianza en exclusiva con fabricantes como Lexus.

Contemplar el desarrollo de lo que va a ser la próxima gran evolución de los automóviles puede darnos una idea de lo que supone trabajar en una industria que ve cómo se alteran algunos de sus esquemas fundamentales, cómo las marcas precisan de visión estratégica que les lleve a ceder una parte del control que tenían, y cómo se someten a procesos de transformación digital en todos los sentidos: en el de convertirse en data-céntricos a efectos de interacción con unos clientes que generan millones de bits de información cada vez que frenan o pisan el acelerador, el de modificar sus procesos internos para gestionar y analizar esos volúmenes de datos, y el de replantear su modelo de negocio para convertirse en plataformas en todos o parte de su cadena de valor. Y todo ello en un entorno en el que si la opción que se tomó en un momento por un sistema operativo o un aliado estratégico determinado resulta no ser el caballo ganador, es susceptible de condenar a la compañía a un retraso importante o a un ostracismo en la mente del cliente durante una serie de años, y acompañado – para terminar de liar el panorama – por la posibilidad más que probable de que ese cliente ni siquiera sea el que ahora conocemos, sino que sea de otro tipo, con mucha mayor capacidad de negociación, en un esquema B2B y con condicionantes completamente diferentes en cuanto a modelo de negocio.

En este ámbito, todo, absolutamente todo requiere de un replanteamiento ambicioso, de una forma de pensar completamente abierta y libre de condicionantes, que solo algunas marcas serán capaces de llevar a cabo. Acostumbrarse a que la capacidad de una marca de influir en el ecosistema  ya no depende de sí misma, sino de sus posibilidades de ser un socio atractivo para proveedores tecnológicos que hace poco tiempo no eran nadie en esta industria responde a un proceso complejo que no está al alcance de todo el mundo. En este momento, los plazos que la mayoría de los analistas dan para los enormes cambios que esta industria sin duda va a sufrir no tienen nada que ver con los que la propia industria pretende manejar, con diferencias que llegan a los diez años: mientras Waymo, Uber y otros actores hablan de 2020 como “año mágico” en el que veremos despliegues comerciales completos de vehículos autónomos, nuevos esquemas de propiedad consolidándose y los vehículos de combustión interna dejando de comercializarse de manera prácticamente súbita, la industria tradicional estima esos plazos en torno a diez años más tarde, y pretende que en 2030 todavía se venderán vehículos con motor de combustión interna…

Pronto, el panorama comenzará a aclararse, empezarán a delimitarse ganadores y perdedores, y las alianzas empezarán a demostrar su verdadero valor. Si creías ser un experto o acumular una experiencia muy valiosa en la industria de la automoción, piénsalo de nuevo: si no respondes a una demanda de actualización brutalmente intensa, toda esa experiencia o esos conocimientos podrían llegar a convertirse en papel mojado.

El automóvil, como ordenador sobre ruedas. Impresionante momento para trabajar en automoción.

 

Powered by WPeMatico

La compañía más valiosa del mundo

Apple

Ana P. Alarcos, de Idealista News, me llamó para hablar sobre la estrategia de Apple y sobre los principios que han conseguido que se convirtiese en la compañía más valiosa del mundo, con el fin de documentar un reportaje publicado hace un par de días y titulado “Apple: la historia de la empresa más valiosa del mundo explicada a través de su cotización en bolsa” (pdf).

Hablamos de los elementos diferenciales de la estrategia de Apple: una concepción de la innovación inequívocamente centrada en la investigación aplicada, en la que todo se centra en la reinvención y racionalización de una categoría de producto, independientemente de los movimientos de la competencia. Apple es Apple cuando reinventa, cuando redefine y transforma categorías que llevaban inventadas generalmente largo tiempo, pero que nunca habían llegado a despegar en su adopción, generalmente porque los productos existentes no estaban suficientemente bien desarrollados.

Antes de Apple ya había ordenadores, por supuesto. Pero nadie, salvo una minoría de geeks fervientes, veía un ordenador como algo que apeteciese comprar y tener en casa. Era, simplemente, un producto para satisfacer una necesidad muy específica. Tras el lanzamiento del ordenador de la compañía, la categoría se había redefinido, el concepto de ordenador había cambiado de manera esencial y se llamaba ordenador personal, y prácticamente cualquier persona podía aspirar a tener uno en su casa y encontrarle usos que resultaban completamente lógicos y racionales, aunque antes ya hubiese ordenadores y no fuese así. Ese cambio de concepto ha tenido lugar en muchas ocasiones en la historia de la compañía: antes del iPod había miles de reproductores MP3, pero ninguno destacaba especialmente ni tenía el más mínimo componente de radicalidad. Tras el iPod, todos queríamos tener toda nuestra música en un dispositivo, y tenía que ser ese, no otro. Los demás ya carecían de toda relevancia.

Con el iPhone no solo se produjo una redefinición brutal, sino que además, se creó el concepto de smartphone, que ha cambiado el mundo tanto como el de ordenador personal. Muchos críticos discutirán hasta la extenuación si esos concepto fueron o no creados por la compañía, pero los hechos lo prueban ampliamente: antes de Apple, la categoría no existía, era meramente testimonial y propia de usuarios especializados. El iPhone se convirtió en la base de la rentabilidad de la compañía, y después de él, aún hemos visto reinventar la tablet con el iPad, inasequible al hecho de que ya existiesen tablet computers desde muchos años antes, y unas cuantas categorías más.

Ojo con los tópicos y con achacar a la compañía un debilitamiento desde la muerte del fundador: Steve Jobs era indudablemente un genio, pero desde la llegada a la dirección de Tim Cook, Apple ha sido capaz de mantener una progresión razonable en sus productos principales, de entrar en una nueva categoría, de consolidar de manera brillantísima su red de distribución propia, de entrar y liderar una nueva categoría (el smartwatch) y de desarrollar un proceso de orientación a servicios (Apple Music, servicios de almacenamiento, etc.) que se ha convertido en una línea de negocio fundamental. Además, se rumorea que la compañía está preparando importantes lanzamientos al menos en dos áreas prometedoras, la de la realidad virtual o aumentada, y la automoción. Para quienes dicen que la compañía no es lo mismo sin Jobs, los hechos prueban que con Cook no está para nada en malas manos.

¿Sombras? Indudablemente las hay, y para mí, fundamentalmente dos: el acortamiento de las ventanas de explotación debido a la copia cada vez más rápida y competitiva de las ventajas diferenciales de Apple, y la cada vez más compleja tarea de atraer y retener talento en un área como machine learning e IA en la que la dificultad es ofrecer a los expertos un ambiente abierto en el que puedan trabajar con datos de usuarios y compartir su aprendizaje con el resto de la comunidad científica. Una incógnita compleja, que tiene que ver con una cultura basada en el secretismo, y que pronto sabremos hasta qué punto llega a resultar una limitación de cara a su desarrollo.

El reportaje de Idealista News me pareció brillante y bien medido, verdaderamente una lectura recomendable y una imagen muy ajustada de una de las compañías más interesantes y únicas dentro de las que la tecnología ha posibilitado.

 

Powered by WPeMatico

Racionalizando las transacciones cotidianas

IMAGE: Christos Georghiou - 123RFEs una de mis reflexiones más habituales, y sobre todo en temporadas en las que viajo más: ¿por qué diablos tengo, si quiero subirme a un medio de transporte o acceder a un sitio, obtener en muchos casos un billete de papel que, además, incluso necesito mostrar a una persona en un punto de acceso, creando cuellos de botella y colas en sitios que podrían funcionar de maneras mucho más racionales?

El sistema, completamente ineficiente y absurdo considerando el nivel de generalización de la tecnología, lleva tiempo contemplando el desarrollo de sistemas alternativos aplicados a una amplia variedad de transacciones: en Londres, desde el año 2014, los usuarios de metro y autobús pueden, además de pagar con su Oyster Card, un sistema de prepago emitido ya a más de diez millones de usuarios y que es utilizado diariamente por más del 80% de los viajeros, utilizar los mismos lectores sin contacto para pagar con tarjetas de crédito contactless o con sus smartphones. El progreso en la implantación del sistema es tal, que los autobuses, desde hace algún tiempo, ya ni siquiera admiten el pago en metálico.

Este tipo de sistemas van extendiéndose cada vez más: hay ya más de ochenta ciudades en el mundo con despliegues de este tipo de sistemas basados en tarjetas sin contacto, con las compañías de tarjetas de crédito como claros interesados en la idea, y configurándose como uno de esos elementos que definen ese concepto vago al que generalmente nos referimos como smart city.

Sin embargo, además de la lentitud – o directamente ineptitud – de algunas compañías y administraciones a la hora de ponerlo en marcha, siguen existiendo numerosos ejemplos en los que persisten ineficiencias. El embarque en un avión por ejemplo, es uno de ellos: la necesidad de exhibir el título de transporte ante una persona en la puerta, título que afortunadamente ya puede estar en formato electrónico y ser mostrado desde un smartphone o incluso desde un smartwatch, se estropea cuando, además, tenemos que enseñar también un documento que acredite nuestra identidad. Una medida adoptada por seguridad, que en realidad no solo deja muchísimo que desear – generalmente la inspección del documento es completamente superficial y llevada a cabo en muy pocos segundos – sino que, además, es profundamente ineficiente. Un proceso de embarque de un avión es, en la práctica, toda una demostración de cosas mal hechas: desde las colas, al deficiente control, pasando por los viajeros que acuden cuando no es su turno, etc.

En la práctica, tendría muchísima más lógica proceder a la verificación de la identidad mediante sistemas basados en los dispositivos electrónicos que llevamos encima. Un smartphone o un smartwatch son dispositivos intrínsecamente personales, dotados de sensores y de sistemas de comunicación susceptibles de verificar mi identidad de formas mucho más rigurosas que una simple inspección ocular fugaz de mi DNI o pasaporte. Desbloquear mi smartphone con mi huella supone una prueba mucho más rigurosa de mi identidad que comparar mi cara con una foto, generalmente, además, con varios años de antigüedad. Podríamos desarrollar sistemas, por ejemplo, que se basasen en más de un factor – algo que tengo, como el teléfono, unido a algo que sé, como una contraseña, o a algo que soy, como una huella digital o una imagen de mi retina – que posibilitasen el paso por puntos de control de manera prácticamente automatizada y sin supervisión directa de una persona más que para casos aislados. Tecnológicamente, todo está ya desarrollado y con un nivel más que razonable de madurez en su difusión, difusión que además se haría más rápida si el desarrollo de este tipo de sistemas actuase como incentivo.

El desarrollo e implantación progresiva de sistemas como Android Pay, Apple Pay y otros ha hecho indudablemente mucho por la redefinición de muchas transacciones en términos de comodidad y con niveles de seguridad muy superiores a sus alternativas tradicionales, pero sin embargo, la transformación de los documentos oficiales de identificación, como tarjetas de identidad, carnets de conducir o pasaportes, sigue resultado muy lenta o completamente decepcionante en sus prestaciones, a pesar de que tendrían mucho que aportar tanto en términos de comodidad y seguridad. En India, el desarrollo de Aadhaar, la base de datos biométrica a nivel nacional, acompañada de IndiaStack, un conjunto de APIs que permiten a los desarrolladores crear aplicaciones sobre ella, parte del impulso de un presidente absolutamente convencido de la necesidad de apostar por la tecnología, pero también ha sido criticado por suponer un nivel de control muy elevado de los ciudadanos que supone una amenaza a la privacidad y un enfoque a la resolución de los problemas de la administración, no los de los usuarios, con algunas de esas preocupaciones acrecentadas debido a los planes del gobierno de sustituir el dinero en metálico por transacciones autenticadas mediante la huella digital. Indudablemente, el balance entre comodidad, eficiencia y privacidad debería estar presente en todo desarrollo de este tipo y ofrecer las garantías adecuadas al usuario, pero sin convertirse en un freno o en una enmienda a la totalidad para su introducción.

Es posible que a los que nos dedicamos a estudiar la tecnología o la innovación en general, todo plazo nos parezca excesivamente largo. Pero también resulta llamativo que, salvo en el caso de India, el desarrollo de este tipo de sistemas esté siendo tan desesperantemente lenta en el sector público frente al que experimenta en el sector privado, a pesar de las muchas ventajas que podría representar. Incluso administraciones tan retrógradas y presuntamente tecnofóbicas como la actual en los Estados Unidos están organizando rondas de reuniones con compañías tecnológicas para tratar de modernizar la forma en que los ciudadanos interactúan con ellas. ¿Qué planteamientos faltan para superar esas resistencias y que ese tipo de despliegues se conviertan en realidad?

 

Powered by WPeMatico

La paranoia como elemento estratégico

HousepartyMi columna en El Español de esta semana se titula “Facebook y la paranoia“, y trata de explicar la importancia de estar completamente alerta y pendiente de las variaciones del entorno, preparado para tomar decisiones si se percibe algún tipo de cambio en las tendencias.

Facebook es el ejemplo perfecto de estrategia basada en la paranoia, en la atención prácticamente obsesiva al entorno y a sus cambios. Para cualquier compañía, desarrollar su actividad dentro del entorno competitivo definido por las redes sociales resulta sumamente complejo: las variaciones de las tendencias son constantes, los cambios en los gustos y las preferencias, los nuevos entrantes… hoy estás en la cresta de la ola, mañana te han olvidado.

Situaciones de ese tipo las hemos visto con redes sociales como MySpace, que pasó de ser considerada el símbolo de toda una generación y de generar más páginas vistas que Google, a tener un uso prácticamente marginal en cuestión de meses, u otras como Friendster u Orkut, que se encontraron de repente y sin haberlo planeado como sujeto de las preferencias masivas en países como Malasia o Brasil respectivamente, y pasaron de intentar una estrategia global, a no poder hacerlo por ser percibidos como fenómenos locales en los que predominaba muy claramente un idioma o una cultura determinada susceptible de generar procesos de alienación en usuarios de otros países.

No entender este tipo de fenómenos y, sobre todo, su velocidad, llevaron a compañías como News Corp. o AOL a perder varios centenares de millones de dólares cuando, tras adquirir redes como MySpace o Bebo respectivamente por $580 millones y por $850 millones, terminaron malvendiéndolas por 35 o por 10 millones tan solo unos pocos años después. Como en 2012 comentaba Rupert Murdoch en Twitter tras anunciar la venta,

“Many questions and jokes about My Space. Simple answer – we screwed up in every way possible, learned lots of valuable expensive lessons.”

(Muchas preguntas y chistes sobre MySpace. Respuesta simple – la cagamos de todas las formas posibles, y aprendimos muchas valiosas y caras lecciones)

En efecto, las redes sociales definen un entorno tan dinámico, tan cambiante, tan caprichoso y tan inestable, que desarrollar cualquier actividad en él tiene que provocar necesariamente un estrés permanente, una hipertrofia de los sentidos, de la capacidad de alerta. Es un entorno en el que, parafraseando el libro de Andy Grove publicado en 1996, “solo los paranoicos sobreviven“: cualquier cosa puede cambiar en muy poco tiempo, y en muchos casos no debido a una razón fácilmente explicable, sino a una simple moda pasajera o a una percepción difícil de detectar.

Facebook sabe perfectamente en qué entorno opera, y actúa en consecuencia, lo que la ha llevado a encadenar ya trece años de evolución positiva y a una valoración de casi 420,000 millones de dólares. Podemos imaginarnos a su fundador, Mark Zuckerberg, sentado en lo alto de una altísima pirámide, desde la cual puede, con un simple movimiento de cuello, ver lo que hacemos casi dos mil millones de personas en todo el mundo. Qué leemos, qué compartimos, qué comentamos… todo. Desde esa privilegiada atalaya, detectar la creciente popularidad de fenómenos como Instagram, WhatsApp o Snapchat es cuestión simplemente de estar atento, aunque es bien sabido que las señales solo lo son para aquel que está preparado para interpretarlas. Pero en cuanto Mark Zuckerberg vio que algunos segmentos sociodemográficos comenzaban a utilizar esas aplicaciones, supo rápidamente que tenía que hacer algo si no quería verse desplazado en un entorno tan sumamente volátil. Así que lanzó ofertas de compra por las tres, con el resultado ya conocido: se hizo con Instagram y WhatsApp, y vio como Snapchat rechazaba su oferta de tres mil millones de dólares. Desde entonces, ha intentado copiar la funcionalidad de Snapchat en hasta cuatro ocasiones, hasta acertar en la última de ellas, Instagram Stories, que ya ha logrado superar a la propia Snapchat en número de usuarios activos.

En entornos tan dinámicos, ese comportamiento paranoico, esa vigilancia hiperactiva y constante es prácticamente puro sentido común. La imagen que acompaña a esta entrada pertenece a Houseparty, una app de vídeos en grupo lanzada a finales de septiembre del año pasado por los creadores de Meerkat. Houseparty está creciendo en popularidad entre jóvenes en Estados Unidos, Canadá y algunos otros países, que la utilizan para comunicarse en múltiples ventanas de vídeo en tiempo real, que se muestran con una calidad bastante alta. La popularidad aún no es especialmente masiva, es simplemente un fenómeno creciente, pero ayer, comentándolo en una de mis clases, la respuesta de una alumna que la utilizaba habitualmente fue tan sencilla y directa como “it’s supercool!”.

¿Qué hacer en un caso así si estás sentado en esa pirámide y tienes la oportunidad de ver surgir y crecer algo que tiene posibilidades de convertirse en un fenómeno, y que tiene detrás a los fundadores de una app que, además, ya lo consiguió anteriormente? Meerkat fue la primera app que fue capaz de generar popularidad en torno al fenómeno del livestreaming, el vídeo en directo, se convirtió en la sensación del SXSW de 2015, y únicamente cedió en su popularidad ante la competencia de Periscope, una app similar lanzada desde Twitter, que terminó por provocar el cierre de Meerkat.

Facebook lo tiene claro: para tomar decisiones, es fundamental entender el fenómeno. En este momento, es prácticamente imposible saber si apps como Houseparty van a convertirse en un fenómeno masivo o van a ser simplemente algo minoritario, o una moda pasajera que desaparezca en breve. Saberlo implica trabajo de campo, investigación, información. Así, ha lanzado una encuesta a usuarios de entre 13 y 17 años, preguntándoles si utilizan Houseparty u otra app similar, Fam, que se describe como “un FaceTime de grupo”, y proponiendo a esos jóvenes contestar algunas preguntas y formar parte de un focus group en las oficinas de la compañia en Menlo Park, a cambio de un pequeño incentivo económico. Si lo que está en ciernes es un fenómeno masivo, algo que a día de hoy aún resulta muy difícil saber, Facebook quiere estar al tanto y enterarse lo antes posible, porque la decisión resultante puede implicar decisiones como la de lanzar una oferta de adquisición a la compañía o intentar replicar su funcionalidad.

La paranoia se está convirtiendo en un elemento más de la estrategia empresarial. En entornos que se mueven cada vez más deprisa, la paranoia es una consecuencia prácticamente lógica, una línea de defensa fundamental. Pero ojo… se me ocurren cada día más industrias en las que la paranoia se está convirtiendo en un elemento necesario y fundamental. Si crees que esto solo afecta a Facebook, o solo al entorno de las redes sociales, es muy posible que te equivoques. Es más: es muy posible que sea ya demasiado tarde.

Powered by WPeMatico

Las industrias y la racionalidad

IMAGE: Sociologas - 123RFEl inicio de la era del smartwatch se suele fijar en el momento en que una minúscula startup, Pebble, consiguió levantar más de diez millones de dólares en preventas y se convirtió de largo en el récord absoluto de Kickstarter, hecho que señaló a otros fabricantes que la categoría podía estar ya en disposición de ser considerada interesante de cara al gran público.

La hazaña de la pequeña compañía, que todavía llegó a ser repetida casi tres años después duplicando su recaudación con un nuevo modelo y de nuevo en Kickstarter antes de constatar su falta de viabilidad económica y terminar siendo adquirida por Fitbit, dio paso inmediatamente a una pléyade de marcas de todo tipo compitiendo por lanzar todo tipo de modelos de smartwatch, hasta que Apple lanzó el suyo, como siempre con la idea de redefinir la categoría, y se convirtió en líder absoluto de la misma.

Resulta indudable que el éxito que supuso el Apple Watch, aún discutido por quienes se quedan únicamente en análisis superficiales, unido al ruido creado por otras muchas marcas en torno a las prestaciones de sus smartwatches, ha revolucionado completamente las preferencias del mercado y modificado enormemente las decisiones que tomamos en torno a lo que nos ponemos en la muñeca. Y consecuentemente, vienen las cifras: las exportaciones de relojes suizos encadenan su tercer año de descensos consecutivo, algo que solo había ocurrido a principios de la década de los ’30, en plena Gran Depresión, y la industria se contrae con ratios a todas luces alarmantes. Simplemente, el concepto de reloj ha cambiado, y ahora, una máquina complejísima, que se preciaba de su propia sofisticación, con una ingeniería que llegó a niveles asombrosos, pero que se limita a dar la hora y algunos pocos datos más ya no compite con la posibilidad de llevar en la muñeca un auténtico ordenador, con toda la versatilidad que le puede llegar a aportar un vastísimo escaparate de apps desarrolladas por competidores de todo tipo.

Cuando empezamos a hablar de smartwatches, muchas personas afirmaban que ese tipo de aparatos jamás podrían plantearse sustituir al reloj de pulsera tal y como lo conocíamos. Que el reloj era un elemento de estilo, que reflejaba otras cosas, que descansaba sobre una tradición de ingeniería avanzada y que representaba una parte importante de países como Suiza que nunca se dejarían arrebatar sin lucha. Ahora, tan solo cinco años después de la salida del primer Pebble y dos años después del inicio de las ventas de Apple Watch, estamos haciendo la crónica de una debacle, de cómo una industria importantísima y consolidada ve caer sus ventas por tercer año consecutivo, y sin demasiadas perspectivas que permitan atisbar ningún rayo de esperanza.

¿Puede hacer algo la industria suiza para enderezar su marcha y evitar convertirse en algo testimonial, en un referente del pasado que, aunque tenga sus adeptos, se verá restringido a un mercado prácticamente residual o simbólico? ¿Deberían las marcas lanzarse a un producto, el smartwatch, en el que carecen de ventaja competitiva alguna y donde se utilizan tecnologías completamente diferentes a las que les permitieron establecerse como generadores de tendencias? Resultaría difícil y arriesgado recomendar una estrategia así, y de hecho, parece muy poco probable salvo por marcas encuadradas dentro de lo que ya significó en su momento una tendencia renovadora, como Swatch, y que han generado un nivel de atención, por el momento, bastante relativo. No cabe duda: los relojeros suizos han perdido completamente el liderazgo del mercado de “cosas que nos ponemos en la muñeca”, y las tendencias apuntan a que aquella supuesta ventaja basada en intangibles como el estilo o la tradición tiene más bien poco que decir.

Las industrias, en general, tienden a la racionalidad. En ocasiones es debido a dinámicas competitivas y al hecho de que sean explotadas de manera desigual por los distintos participantes, en otras ocasiones es debido a la presión de nuevos entrantes, y en otras, simplemente, es porque sus usuarios toman decisiones basadas precisamente en eso, en lo racional, y no tanto en lo romántico o lo intangible. Una gran parte del mercado aún tiene muchísimas dudas sobre la necesidad de llevar un smartwatch en la muñeca, y esas dudas resultan completamente justificadas y justificables. Pero otra parte, y aparentemente cada vez más significativa del mercado, tiene cada vez menos dudas, y una vez que prueba, parece que se encuentra en dinámicas de repetición y de obtención de prestaciones cada vez más decisivas, que inclinan la balanza en favor del ordenador de muñeca. Para algunos son las notificaciones, para otros el control de la actividad física, para otros la moda… cada uno encuentra su propuesta de valor en una categoría que ni siquiera se encuentra aún completamente definida en sus fronteras, pero al final, el resultado es el que es: ventas crecientes de smartwatches, y tres años de caída consecutiva de las exportaciones de la industria relojera suiza. Una crisis sin precedentes.

Todo indica que esperar a que sea el peso de la tradición, el estilo y otros intangibles lo que salve la cuenta de resultados no es un consejo demasiado acertado. De una manera u otra, la racionalidad termina por imponerse. Para muchas otras industrias, y es posible que aún ni ellas mismas sepan siquiera cuáles son, la experiencia de los relojeros suizos debería convertirse en una buena y certera nota mental. Después, cuando llegue la caída de las ventas año tras año, que no digan que no fueron avisados…

 

Powered by WPeMatico

El zero-rating como amenaza

IMAGE: Shchigol - 123RFCada vez más compañías de telecomunicaciones lanzan ofertas de las llamadas zero-rating, toll-free data o sponsored data: la posibilidad de utilizar determinados servicios sin que el consumo de datos que generan sea contabilizado por la operadora. El caso de Vodafone con WhatsApp es exactamente eso, y plantea un problema muy importante escondiéndolo bajo la apariencia de una oferta atractiva que bajo ningún concepto debería ser legal. Que el servicio se denomine chat-zero e incluya a otros programas de mensajería instantánea no oculta la verdad: para entrar en ese paquete hay que sentarse a negociar con la operadora, y quien no se siente a su mesa y negocie, se queda fuera.

El zero-rating ofrece a una operadora la posibilidad de otorgar graciosamente a sus usuarios acceso gratuito a determinadas aplicaciones, y sitúa con ello a esa operadora en la posición de poder decidir, en función de sus intereses y acuerdos comerciales, qué servicio es más atractivo para sus usuarios. Nadie va a abandonar una operadora porque esta le ofrezca algo gratuito, pero a nadie con dos dedos de frente se le escapa que el efecto de tal promoción es potencialmente perverso y peligroso.

A partir del momento en que permitimos que sea una operadora la que decida qué servicios reciben un trato ventajoso, estamos cerrando la puerta a la innovación. Estamos convirtiendo la web en un lugar en el que solo triunfan aquellos que están en una posición de poder llegar a acuerdos comerciales con operadoras, con todo lo que ello conlleva. Otorgamos a esas operadoras la capacidad de convertirse en jueces, de decisores de qué servicios son ofrecidos en franquicia, con ventaja, como quien compite con esteroides. Si una startup pretende competir con uno de los servicios a los que las operadoras otorgan su consideración de zero-rating, se encontrará con que la única manera de competir con lo que la operadora regala es llegando a acuerdos con esa misma operadora, lo que permite que esa operadora pueda pedirle, básicamente, lo que quiera. Una posición de juez intermediador que las operadoras jamás deberían tener.

Que empecemos a ver cada vez más ofertas de zero-rating supone un problema muy importante de cara al futuro de internet tal y como lo conocemos. La red en la que cualquier emprendedor con una buena idea podía convertirse en una revelación y triunfar se convierte en un sitio donde solo si eres bendecido con la inclusión en el zero-rating de una operadora podrás llegar a tener alguna posibilidad de hacerlo. A estas primeras ofertas que incluyen simplemente servicios en principio no discutidos por nadie, como un WhatsApp que se entiende de uso mayoritario y prácticamente commodity, seguirán otras como la inclusión de un determinado servicio de música, o, por qué no, de un medio de comunicación determinado. ¿Qué tal nos parecerá el zero-rating cuando siendo de una operadora tengas acceso a los medios con los que tiene acuerdo sin que te consuman datos de la tarifa, pero si quieres leer otros que no están en su paquete, debas consumirlos? ¿O cuando los emprendedores se encuentren con unas operadoras convertidas en puerta de acceso, que pueden pedirles lo que quieran a cambio de dejarles entrar en “su paraíso del zero-rating“?

Oponerse al zero-rating es fundamental, ni más ni menos que defender la naturaleza de internet frente a la voracidad de las operadoras. El zero-rating consiste, básicamente, en permitir a las operadoras que comercien con el acceso a su plataforma de usuarios, usuarios que deberían tener por principio un acceso en total igualdad de condiciones, pero que se les mediatiza para convertirlos en prisioneros, bajo la apariencia de un regalo, de un privilegio. Pensar que el zero-rating es de alguna manera “un chollo”, “un regalo” o “un privilegio” es tener una total cortedad de miras, y sacrificar precisamente aquello que ha llevado internet a ser lo que es. No, no te están regalando nada: te están quitando el derecho a una internet abierta y libre en la que los servicios triunfen por lo que son, y no por los acuerdos a los que llegan con una operadora. Tenlo muy en cuenta.

 

Powered by WPeMatico

Pescando en la Casa Blanca

IMAGE: Selman Amer - 123RFUn grupo de periodistas de Gizmodo tuvieron una idea aparentemente absurda y sin duda peligrosa, pero que tengo la impresión de que podría convertirse en relativamente habitual en otros contextos: tratar de lanzar un ataque de phishing a quince personas del equipo directo de Donald Trump en la Casa Blanca.

El phishing es uno de los mecanismos más habituales de robo de información en la red: típicamente, se envía al usuario un correo electrónico desde una cuenta simulada que le genere confianza, en el que se le solicita que haga clic en un enlace que le presenta una página, igualmente simulada, en la que introducir su usuario y contraseña de un servicio determinado. A principios de mayo, un esquema de phishing muy sofisticado y convincente con la apariencia de un mensaje de invitación a un documento de Google Docs logró que varios miles de usuarios le entregasen sus nombres de usuario y contraseñas de Google, y le diesen acceso a sus contactos para extender el ataque más aún. Las estadísticas de 2016 afirman que un 85% de las compañías han sido objeto de ataques de phishing, y que alrededor de un tercio de los mensajes de phishing son abiertos por el usuario.

El ataque planeado por Gizmodo utilizaba un esquema bastante conocido, comentado bastante recientemente al hilo del episodio de Google, y fue estructurado como un test de seguridad, con la idea de poner a prueba los conocimientos en este tipo de cuestiones del equipo presidencial de un Donald Trump que ha sido etiquetado por muchos como un profundo desconocedor del entorno tecnológico. Desde la publicación, se enviaron correos electrónicos a quince miembros del equipo presidencial, desde direcciones de correo electrónico simuladas – sin ningún tipo de sofisticación, sin ni siquiera ocultar la dirección real – que utilizaban nombres de personas de su confianza, como otro miembro del equipo, un conocido o su pareja. En ese sentido, el ataque se tipifica como un phishing unido a un esquema de hacking social, lo que pasaría a considerarse un targeted attack, un ataque con un objetivo concreto, que va más allá de los esquemas más habituales y básicos que utilizan simplemente direcciones aleatorias.

De los quince receptores del correo de Gizmodo, siete ignoraron completamente el mensaje, pero otros ocho accedieron a la página solicitada en menos de diez minutos tras el envío, lo que podría indicar que no consultaron a ningún experto en seguridad o miembro del equipo de tecnología antes de hacerlo. Dos personas, además, contestaron el correo electrónico pensando que la identidad falsa era real, ante lo que Gizmodo decidió no continuar con el esquema (en lugar de continuar con un segundo correo que siguiese intentando obtener su objetivo). Según la publicación, ninguno de los receptores llegaron a introducir su usuario y contraseña en la página falsa, y además, se desconoce cuántos de ellos podrían tener activada la verificación en dos pasos, que incrementa la seguridad incluso en caso de captura del par usuario – contraseña añadiendo una verificación más a través de un número enviado a un dispositivo o de una autenticación adicional mediante huella (es la que utilizo yo, y es verdaderamente cómoda, muy poco engorrosa y francamente recomendable), algo que parece una precaución más que lógica y razonable en ese tipo de ámbitos y niveles de responsabilidad. La idea era poner a prueba y documentar la educación en seguridad del equipo del presidente, pero – se supone – no ir más allá.

Algunos afirman que la jugada de Gizmodo podría conllevar una denuncia por infracción de la Computer Fraud and Abuse Act (CFAA), aunque la publicación afirma que para evitar esa acusación, el diseño del experimento se hizo de manera que no habría permitido conocer el usuario y la contraseña introducida, sino simplemente constatar que la habían introducido. Por el momento, la Casa Blanca no ha cursado denuncia alguna. 

¿Qué ocurriría en tu compañía si se enviase un correo de ese tipo, desde una cuenta que simulase la de un compañero o un familiar? ¿Cuántos caerían y suministrarían su usuario y contraseña? ¿Puede este tipo de tests convertirse en una manera de evaluar la cultura en seguridad en las organizaciones? ¿Deberíamos pensar en convertir en habituales pruebas de este tipo en nuestra compañía, como forma de detectar vulnerabilidades o educar en seguridad? Y desde mi punto de vista, en todo este tipo de cuestiones subyace una pregunta importante: la seguridad informática y las infracciones a la misma aún es vista por muchos como algo “de expertos”, como una cuestión disculpable, una falta menor. Aún nos parece relativamente normal y hasta disculpable que una persona facilite su contraseña a otra, o que la tenga pegada en un post-it en la pantalla del ordenador. ¿En qué momento cuestiones de ese tipo, como responder a un correo de phishing, dejan de ser consideradas como algo disculpable y pasan a conceptualizarse como descuidos imperdonables, como el dejarse las llaves puestas en la cerradura, o como una imprudencia temeraria que conlleva responsabilidad? En los Estados Unidos, una cuestión de seguridad como el utilizar una cuenta de correo electrónico personal para tratar asuntos de estado fue utilizada con profusión por Donald Trump para atacar a su oponente, Hillary Clinton, durante toda la campaña. ¿Qué cabría esperar que ocurriese si hiciésemos una prueba como esta con los miembros del gabinete de gobierno de otros países?

 

Powered by WPeMatico