Category Archives: Google

Auto Added by WPeMatico

El hombre algorítmico

IMAGE: Leo Blanchette - 123RFUna noticia en el Technology Review del MIT, Your best teammate might some day be an algorithm, me lleva a pensar en ese balance entre el desarrollo de más y más capacidades en las máquinas que, sin duda, pueden llevar a que muchos trabajos dejen de tener sentido, y la visión particular que siempre he tenido de mi trabajo viéndose cada vez más potenciado por el uso de ese tipo de tecnologías.

Francamente, nunca he tenido demasiado miedo de que un algoritmo me deje sin trabajo. Será porque me dedico a algo que pocos ubican en las quinielas de trabajos a ser rápidamente sustituidos por robots o por la flexibilidad absoluta que la institución para la que trabajo me ofrece a la hora de enfocar mi actividad, pero siempre he pensado que si todo mi entorno se ve revolucionado por la tecnología, seguiré teniendo posibilidad de estudiarlo y explicárselo a alguien a quien le pueda añadir valor.

Así, el enfoque de un desarrollo de herramientas algorítmicas enfocado en la colaboración me lleva a plantearme qué cosas podré hacer cuando algunas de las partes de mi trabajo que menos me gustan y que, posiblemente, menos valor añade, puedan ser llevadas a cabo por algoritmos, cada vez más fáciles de desarrollar y educar gracias a herramientas cada vez más sencillas.

Nuestro trabajo y nuestra vida en general están cada vez más rodeados de herramientas, que aportan una eficiencia cada vez mayor. Sin embargo, fallan aún algunos elementos: el primero de todos ellos es el que afecta a la visión de automatización incompleta de muchas tareas, que no llegan a suponer automatismos exactos, sino que están sujetas a una cierta variabilidad o “toque humano”, y que precisamente por eso, las herramientas aún no aciertan a llevar a cabo con el nivel de rendimiento adecuado. Durante muchos años, las herramientas se han planteado la automatización como una manera de replicar procesos de manera idéntica y predecible, un enfoque que se ha mostrado limitado. La posibilidad de introducir en esos algoritmos pasos que repliquen en algunos puntos el juicio de un humano en función de datos generados anteriormente permitirían establecer procesos de automatización mucho más potentes, planteados en función de diversos parámetros, y con mayor posibilidad de añadir valor. Hace relativamente poco tiempo, separar el spam del correo electrónico era una tarea pesada y manual. Ahora, prácticamente nada escapa al algoritmo, y la carpeta de spam ya prácticamente no merece supervisión manual. Y como eso, mil cosas más.

Muchas de las tareas que llevo a cabo a lo largo del día precisan de atributos que aún son inequívocamente humanos. Pero muchos otros tienen un componente mucho más mecánico y repetitivo, y podrían beneficiarse claramente de un tratamiento algorítmico. Antes de ver cómo los robots roban nuestros trabajos, veremos muchos otros casos de desarrollo de algoritmos que nos permitan niveles de automatización muy superiores que los que conocemos hoy, en tareas que no son completamente repetitivas, pero que llegan a parecérnoslo, y que potenciarán nuestras capacidades al tiempo que liberan tiempo para otras tareas. En muchos casos, cuando los algoritmos y los robots ya puedan hacer nuestro trabajo, nosotros ya estaremos haciendo otros trabajos diferentes, siguiendo un enfoque que, en función de lo ocurrido en épocas anteriores que ya son historia, me parece mucho más adecuado, constructivo y lógico. Cuantos más algoritmos veo, más quiero trabajar con ellos, aplicarlos a mi día a día y sentir que potencian mis capacidades como ser humano.

 

 

 

This post is also available in English in my Medium page, “Man and algorithms” 

 

Powered by WPeMatico

Machine learning y competiciones

Machine learning competitions

Mi columna de El Español de esta semana se titula “Las máquinas y los retos“, y habla sobre las distintas competiciones que algoritmos de machine learning han ido disputando contra los humanos a lo largo de la historia reciente, al hilo de la nueva partida de Go disputada entre el algoritmo de Google, AlphaGo, y el joven genio chino del Go, Ke Jie, con victoria del primero.

Las dos partidas de Go jugadas por Ke Jie contra AlphaGo se produjeron en un contexto extraño: no solo tenían lugar después de las derrotas sucesivas de Fan Hui y Lee Sedol, otros de los mejores jugadores del mundo, sino que además, su emisión fue censurada por el gobierno chino, en un extraño ejercicio de mala interpretación del orgullo nacional. Para Ke Jie, que ha reconocido que el algoritmo de Google es ya “demasiado fuerte para los humanos” y se ha convertido en una especie de “dios del Go”, la situación es tan curiosa como la de ser utilizado como prueba, como argumento final de la superioridad de la máquina en el juego, un papel experimentado anteriormente por otro escaso puñado de humanos en otros juegos.

La importancia de este tipo de desafíos es relativa. En realidad, hablamos de acciones de comunicación, destinadas a obtener repercusión pública de trabajos que, de no utilizar este tipo de competiciones, sería muy difícil que expusiesen sus avances a un nivel que llegase a todos los públicos. A lo largo del tiempo, hemos ido viendo cómo los algoritmos de machine learning se apropiaban del ajedrez, del Jeopardy, del Go y, recientemente, del póker, sin que muchos se hayan parado a pensar qué era exactamente lo que cada competición pretendía demostrar.

En el ajedrez, la cosa era relativamente sencilla: hablamos de un juego de cálculo de escenarios. Cada movimiento genera un escenario nuevo, y los buenos jugadores son capaces de proyectar mentalmente las jugadas a las que puede dar lugar varios movimientos después. Cuando Kasparov pierde contra el Deep Blue de IBM en 1996, lo único que como humanos tuvimos que reconocer fue que una máquina era ya capaz de calcular escenarios probabilísticos mejor que el cerebro de una persona. Perfecto, cuestión de fuerza bruta computacional. Nada que nos ofenda cuando ya llevamos décadas utilizando calculadoras de mano u hojas de cálculo, y considerándolas no una amenaza, sino una bendición. Hasta aquí, todo bien.

Cuando, en 2011, otro producto de IBM, Watson, gana a los mejores jugadores de la historia en Jeopardy, la cuestión ya empieza a ser distinta. Aquí, una máquina está probando ser capaz de entender las muchas veces retóricas preguntas del Jeopardy expresadas en lenguaje natural, buscar sus posibles respuestas, escoger una de ellas, darle a un botón… y ganar. Después de Jeopardy, sabemos ya que un algoritmo va a ser mejor que las personas entendiendo el lenguaje que las propias personas han inventado, lo que abre paso a todo tipo de innovación en robots conversacionales, chatbots, abogados, médicos haciendo diagnósticos… lo que queramos.

En 2015, un algoritmo ya no de IBM, sino de Google, venció a dos de los mejores jugadores del mundo de Go, desafío que en estos días se acaba de completar con la tercera victoria. ¿De qué hablamos aquí? Este es el desafío que corona la importancia del deep learning. Tras mucho entrenamiento del algoritmo suministrándole todas las partidas de Go jugadas y registradas a lo lago de la historia, Google fue capaz de obtener un jugador muy bueno, pero que unas veces ganaba y otras no. Hasta ahí, había llegado a educar un algoritmo para jugar como los grandes maestros de Go, ni más, ni menos. Fue cuando pasó al deep learning cuando se produjo el diferencial: pusieron a la máquina a inventarse partidas que no se había jugado, a jugar contra sí misma, a explorar escenarios improbables. El resultado fue que en algunas de las partidas, AlphaGo empleó movimientos que jamás un humano había llevado a cabo en partida alguna, que tenían una probabilidad de uno entre diez mil, y logró vencer. Ahora, tenemos que vivir sabiendo que un algoritmo puede desarrollar su inteligencia para una tarea más allá de donde el ser humano ha sido capaz de hacerlo.

Finalmente, llegó 2017, y un algoritmo creado en la universidad de Carnegie Mellon, Libratus, fue capaz de vencer a algunos de los mejores jugadores del mundo de póker. El póker, un juego intrínsecamente humano, en el que varias cartas permanecen boca abajo y solo se puede especular sobre ellas, mientras tenemos como entradas de información el resto de cartas en la mesa y la información que los otros jugadores nos dan con sus apuestas, sean o no faroles. Tras 120,000 manos de póker jugadas a lo largo de veinte días, la victoria de Libratus fue absoluta e incondicional: los humanos no tuvieron ninguna posibilidad. ¿Qué significa esto? Sencillamente, que una máquina ya es capaz de analizar una situación de información imperfecta, sometida a incertidumbre, y puede tomar decisiones en ella con mejores resultados que los que podría obtener un humano. Eso mismo, tomar decisiones en entornos de información incompleta o imperfecta, incluida posiblemente información falsa, es lo que hace un directivo en una compañía, lo que yo llevo veintisiete años intentando que mis alumnos aprendan a hacer. Y el enfoque dado por Tuomas Sandholm, creador de Libratus, es precisamente ese: crear un algoritmo de propósito amplio. No está interesado en un algoritmo para jugar al póker, sino en uno capaz de llevar a cabo cuestiones como análisis de ciberseguridad, diagnósticos médicos o negociación empresarial.

Las competiciones y retos empresariales no hay que analizarlas simplemente como la estrategia de comunicación que representan para quien las hace, sino como lo que realmente significan en términos de logros, de demostración de posibilidades, de aplicaciones posibles. Si alguien aún duda de las posibilidades del machine learning, que venga y plantee el siguiente reto.

 

Powered by WPeMatico

Google y las adquisiciones

Google: la voracidad de un gigante insaciable - ForbesLucía Caballero, de la edición española de Forbes, me llamó por teléfono para hablar de Google y de sus adquisiciones, de la idea de una compañía que supuestamente adquiere sin parar todo aquello que se le pone por delante, y me cita en su reciente artículo, titulado, “Google: la voracidad de un gigante insaciable” (pdf).

En mi conversación con Lucía comencé intentando poner las cosas en contexto: Google adquiere muchas compañías de muy diversos tipos, sí, pero sigue una pauta que no resulta especialmente llamativa con respecto a otras compañías de su entorno. Las estrategias basadas en la adquisición son muy habituales en escenarios de dinamismo elevado, y la tecnología, indudablemente, lo es. Desde su primera adquisición en febrero de 2001, Google, ahora Alphabet, ha adquirido un total de 207 compañías, y desde el año 2010 ha llegado a adquirir más de una compañía por semana. Pero sus magnitudes resultan razonablemente comparables con las de otras compañías de su ámbito: Facebook ha adquirido 62 compañías tan solo desde el año 2007, Microsoft ha adquirido 202 desde 1987, Amazon, 72 desde 1998, y Twitter, a pesar de no haber generado nunca beneficios, nada menos que 54 desde 2008.

En efecto, Alphabet adquiere más y más rápidamente, con una filosofía de hacerse con aquello que necesita y que o bien no encuentra en un desarrollo de código abierto, o le podría llevar un tiempo diferencialmente más largo desarrollar internamente. Alphabet es fundamentalmente una compañía de ingeniería, con un potencial de desarrollo brutal, y como tal, enormemente pragmática: si adquirir una funcionalidad o un know how determinado va a ser más rápido que desarrollarlo, saca la chequera y lleva a cabo la operación. Pero como tal, lo que posee es una clarísima orientación al resultado: necesito esto, lo adquiero, sin que parezca existir después una estrategia clara de integración de esas adquisiciones o, en muchos casos, siquiera una preocupación por lo que queda de la compañía adquirida o de sus integrantes. Así, es muy habitual escuchar casos de compañías adquiridas por Alphabet que, al cabo de poco tiempo, ven cómo sus fundadores simplemente “toman el dinero y corren”, y en general, las historias de fundadores de compañías adquiridas por Alphabet que hayan desarrollado una carrera directiva en la empresa de Mountain View son más bien escasas.

La estrategia de otras compañías, como Facebook o Twitter, es completamente diferente. Operaciones centradas en hacerse con lo que necesitan, sí, pero destinadas en muchísimos casos a la incorporación de talento, de equipos capaces de seguir con sus planes tras materializar sinergias dentro de la compañía, de dotar a esos fundadores de muchos más medios y potencia de desarrollo para que persigan sus fines, y sobre todo, de integrarlos muy cuidadosamente y motivarlos para evitar un drenaje de talento. Frente al pragmatismo de Google, por acción o por omisión, este tipo de compañías ofrecen una imagen muy diferente, y posiblemente más sostenible en el tiempo.

Sobre el tema, sobre lo que intentamos obtener en las adquisiciones corporativas, sobre las adquisiciones como ciencia o sobre la idea de saber comprar he escrito en numerosas ocasiones, generalmente al hilo de alguna operación de adquisición, y es un tema que considero fundamental en la estrategia corporativa. ¿Es Google, como afirma el artículo de Forbes, “voraz”? Sin duda lo es, y los datos lo avalan de forma concluyente. Pero ¿obtiene la compañía todo el jugo y el provecho que podría obtener de sus adquisiciones? Desde mi punto de vista no es así, y encuentro filosofías de adquisición en otras compañías de la industria que, por planteamiento, me resultan mucho más atractivas, y parecen generar entornos de trabajo y culturas más inclusivas, más enriquecedoras y con más posibilidades de cimentar una ventaja sostenible.

En una compañía como Alphabet, con reputación de cool e innovadora, y con un enfoque enorme a las personas, un planteamiento así de las operaciones de adquisición resulta llamativo, como una cierta mancha en el expediente. Pero también es cierto que a lo largo de los últimos años, hemos ido también pasando de ver a la compañía como un objeto de deseo para cualquiera y un lugar increíble para trabajar, a verla como un sitio que, aunque indudablemente mantenga su atractivo, sí pierde a trabajadores valiosos con cierta regularidad: una compañía que podría llegar a tener problemas, si no para atraer talento, sí para retenerlo. Pero como todos los elementos culturales, hablamos de cuestiones sutiles, subjetivas, difíciles de determinar de manera concluyente, de percepciones que muchas veces responden a situaciones de mercado o a la visibilidad de quienes son adquiridos por la compañía o la abandonan. Es difícil, incluso hablando con trabajadores o ex-trabajadores de la compañía, saber si esos elementos son un fruto del crecimiento y la evolución, si son algo que siempre ha estado ahí, o incluso si realmente existen como tales. Pero, en cualquier caso, pueden alimentar reflexiones muy interesantes sobre la evolución de las compañías en el tiempo.

 

Powered by WPeMatico

¿La lenta muerte de Google?

This is how Google will collapse - Startup Grind

El mejor artículo que seguramente leerás hoy es este This is how Google will collapse, publicado por Daniel Colin James en Startup Grind: dentro de lo absurdo que puede resultar hablar de “la muerte” de una de las compañías más valiosas del NASDAQ en un momento en el que el precio de sus acciones está en sus máximos históricos desde que salió al mercado en agosto de 2004, y recordando siempre aquella frase de Ruiz de Alarcón, “los muertos que vos matáis gozan de buena salud”, no cabe duda que los argumentos empleados están razonablemente bien ponderados y que lleva a unas ciertas reflexiones indudablemente interesantes.

El primer argumento parece claro: en la web actual, todos tenemos cada vez más destinos que consideramos directos, a los que acudimos de manera sistemática para cubrir ciertas necesidades. Para las noticias, muchos recurren directamente a unas pocas páginas con las que tienen familiaridad, con cuya estructura y sesgo se encuentran cómodos. Para las compras, además de la omnipresencia de monstruos como Amazon, existen muchos otros sitios a los que acudimos directamente, que consideramos referencia o con cuya logística nos encontramos cómodos. Y así, en muchas categorías más: cada vez parecemos necesitar menos un mapa, y la principal actividad de Google es la de ser el gran vendedor de mapas de la web.

Pero, ¿realmente no necesitamos un mapa? No, en realidad lo seguimos necesitando, porque la web se expande constantemente y a gran velocidad como si fuera el big bang. Pero por otro lado, también es cierto que las ocasiones en las que necesitamos ese mapa, el porcentaje de uso que se refiere a lo que conocemos como tráfico de descubrimiento, se reduce a medida que el uso de la web se hace más habitual, y pasa a predominar un acceso más directo a muchas páginas que consideramos parte de nuestro conjunto de recursos, de nuestra caja de herramientas habitual. Que Google “se haga trampas al solitario” y quiera apuntarse como propios los accesos a los que un día, allá en la noche de los tiempos, llegamos mediante su buscador; o peor aún, los accesos de millones de usuarios inexpertos que teclean direcciones web en la barra de búsqueda, no cambia la cosa. En cada vez más páginas, el tráfico evoluciona hacia un predominio de lo directo o lo social, mientras el tráfico de búsqueda tiende a evolucionar a la baja o como mucho a mantenerse estable. Es más: una de las mejores medidas de la calidad de un sitio, cada vez más, es su porcentaje de tráfico directo y social, no el que obtiene a través del buscador, que suelen ser visitas efímeras y poco interesantes. ¿Es esto preocupante para Google? No lo sé, pero sin duda, es una tendencia que indica algo que ya comentamos anteriormente: el negocio transaccional, el cerrar las ventas, es mucho mejor, más sólido y más sostenible que el intangible negocio publicitario de tratar de convencer a alguien para que compre algo.

El segundo elemento es igualmente evidente, y también lo acabamos de comentar hace muy poco: el auge de los bloqueadores publicitarios. Los usuarios hemos hablado, y lo hemos hecho de la manera más clara posible, instalándonos en masa extensiones para bloquear una publicidad que consideramos mayoritariamente basura. Que ahora Google pretenda “salvar la web” convirtiéndose en el adalid que preinstala un bloqueador publicitario en su navegador no oculta la gran verdad: que su negocio es fundamental y mayoritariamente publicidad, y que ayudar a que los usuarios nos libremos de lo que ellos consideran “la mala publicidad” no va a significar necesariamente que aceptemos la suya, la que ellos consideran “buena publicidad”, supuestamente respetuosa con el usuario. Eso es un “veremos” muy grande, un gran “si” condicional, que podría chocar con elementos de alienación, con un más que posible rechazo sistemático a toda la publicidad, sea del tipo que sea. Después de todo, la conciencia de los usuarios con respecto a la sostenibilidad de los negocios, en la web o fuera de ella, es próxima a cero. Y lo que sí es evidente es que los bloqueadores publicitarios han crecido, se han hecho cada vez más importantes sobre todo en los demográficos más jóvenes y con más educación, y que han pasado de ser un fenómeno “de geeks” a algo cada vez más generalizado, tanto en ordenadores como, cada vez más, en smartphones.

En muchos sentidos, la batalla de la publicidad está resultando mucho más compleja para Google de lo que parecía: Facebook ha conseguido configurarse como el francotirador con la mira más precisa y certera, que mejor y más íntimamente conoce a sus usuarios, y que además, merced al control férreo que mantiene sobre su plataforma, puede resistir un poco más el asalto de los bloqueadores de publicidad – aunque no indefinidamente. Con el formato vídeo, Google parece estar teniendo problemas derivados de anunciantes que vetan su plataforma para evitar que sus anuncios aparezcan al lado de contenidos que consideran censurables, algo que Facebook parece gestionar mejor gracias a un modelo de ubicación de la publicidad sensiblemente diferente. No es lo mismo ver la publicidad de tu compañía al lado de un vídeo de contenido cuestionable, que verla en tu timeline porque algún amigo o alguien de tu red la recomendó, por mucho que ese alguien pueda tener una ideología igualmente cuestionable. A los amigos les disculpamos cosas que en otros podemos considerar inaceptables.

El tercer elemento es menos claro, pero igualmente interesante: cuando Google decide pivotar su modelo de negocio desde aquel simple mobile-first centrado en el canal, hacia el machine learning, a pesar de tener muchísimo sentido, llega tarde. Cuando Google se plantea rediseñarlo todo hacia asistentes cada vez más inteligentes que sepan más de nosotros y nos ayuden mejor en nuestro día a día a través de todo tipo de interfaces, se encuentra con que otro gigante, Amazon, no solo lo hizo antes, sino que además, ha conseguido situarse con su Echo como la estrella que marca la tendencia a seguir, la que tiene el mayor parque instalado, y la que evoluciona más rápidamente, ahora ya incluso incluyendo vídeo. Hemos dedicado un buen montón de entradas a Amazon Echo y a la importancia de la voz como interfaz del futuro, y en este tema, Google no marca el paso, sino que es un simple seguidor que lucha desesperadamente por poder estar a la altura de la empresa de Jeff Bezos. Que, además, como se dedica a vender cosas y no simplemente a publicitarlas, encaja mucho mejor con el nuevo modelo y es capaz de financiarlo de manera más sólida. Y todo ello, manteniendo la vista en otros posibles entrantes, como Microsoft, que parece apuntar a prescindir del dispositivo específico y utilizar el PC doméstico para el mismo fin (una estrategia cuestionable, en cualquier caso… un Echo tiene nada menos que siete micrófonos para escucharte perfectamente bien desde cualquier lugar de la habitación aunque haya música sonando, me parece muy difícil suponer que mi PC pueda llegar a funcionar de una manera mínimamente parecida).

¿Significa todo esto que Google vaya a caer, a desaparecer, a morir, o a ser protagonista de cualquier otro escenario apocalíptico? ¿Que debamos plantearnos, como afirma el artículo, un próximo futuro post-Google? Seguramente no. No acabo de ver a una compañía con los recursos de Google dejándose morir o posponiendo una posiblemente necesaria reinterpretación de su hoja de ruta. Pero sin duda, significa que a pesar de sus resultados financieros y de su impresionante imagen, Google tiene problemas de muy diversos tipos en muy diversos frentes, que tiene que plantearse afrontarlos de manera solvente, y que no parece ser capaz de hacerlo mediante adquisiciones, toda vez que su estrategia a la hora de adquirir, como comentaré mañana al hilo de un artículo de Forbes que me cita al respecto, parece mucho más orientada a “rellenar huecos” que a crear y desarrollar ventajas sostenibles en el tiempo.

No, ser grande y exitoso no libra a nadie, ni siquiera a Google, de tener problemas. Y eso da para una muy interesante discusión.

 

Powered by WPeMatico

Publicidad y apocalipsis

Devices using adblock software on the open web - PageFair (Feb. 2017)

Un artículo de Guillermo Vega en El País titulado “Bloqueadores de anuncios: ¿el fin de internet?” (pdf), en el que me cita, confronta las perspectivas sobre la evolución de la publicidad en internet y el fenómeno del bloqueo por parte de los usuarios, lo que el gran Doc Searls ha llamado con razón “el mayor boicot en la historia de la humanidad“, con algunas perspectivas apocalíticas de varios de los actores implicados – y desde mi punto de vista parcialmente responsables – en la cuestión. La frase entrecomillada de la división española de la Interactive Advertising Bureau (IAB), que califica a los bloqueadores de publicidad como de “robo: simple y llanamente” es el más claro y cristalino exponente de la mentalidad y actitud equivocada, del tremendo error de percepción y ceguera que dan lugar al problema.

Según la mentalidad simplista de la IAB, se supone que todo usuario de internet está obligado, por el hecho de entrar en una página web, a aceptar los términos de un supuesto contrato draconiano en el que debe pagar por unos contenidos, y para ello tendrá que someterse a cualquier tipo de torturas decididas por el dueño de dicha página. Si no acepta someterse a esas torturas, está, según ellos, “robando”, lo que lo convierte en un “ladrón”. Es la misma mentalidad absurda que condenó a las discográficas a enfrentarse a varios años de crisis: nosotros contra los usuarios. El usuario “malvado”, responsable de todos los males y culpable hasta “de la desaparición de internet”. Ya solo falta la mención al “gratis total” y la petición de leyes sancionadoras.

Querida IAB: utilizo bloqueadores de anuncios desde hace mucho tiempo. No solo eso, sino que además, lo cuento en mis clases y conferencias, y animo a otros usuarios a que lo hagan. Los bloqueadores de anuncios son la única manera de evitar que una industria cortoplacista y estúpida arruine internet y lo convierta en un canal completamente insostenible. Es lo que pasa siempre: las industrias descubren un nuevo canal, y la tragedia de los comunes hace el resto. Comienzana  explotarlo como si no hubiera un mañana, desvinculadas de cualquier pensamiento mínimamente referido a la sostenibilidad, y al final, lo destrozan y lo convierten en un lugar maldito. La industria de la publicidad ha hecho lo mismo con todos los canales que ha ido descubriendo, y ha sido preciso ir creando normas para todos ellos: hubo una época en la que la venta a domicilio era algo normal y natural, parte de la rutina habitual de un hogar. Hoy, si alguien llama a tu puerta para intentar venderte algo, no abras bajo ningún concepto: puede ser desde un psicópata asesino, hasta un timador profesional. Hace años, el teléfono era una herramienta útil: hoy, si la llamada empieza preguntando tu nombre y apellidos, cuelga inmediatamente: no solo te consumirá tiempo absurdamente, sino que además te venderá algo que no necesitas, en ocasiones incluso confundiéndote para que lo compres y pagues aunque no lo quisieses. Lo mismo ocurrió con el correo electrónico: hace más de veinte años, el correo era una herramienta útil para comunicarse con otras personas; ahora es un montón de spam y basura variada. ¿La web? Lo mismo: la industria de la publicidad mantiene la misma mentalidad: vamos a explotar un recurso hasta convertirlo en completamente insostenible, y si alguien intenta evitarlo, decimos que “está robando”. El patrón es tan absolutamente repetitivo, que uno pensaría que nadie puede ser tan profundamente retardado como para no verlo. Pero ahí siguen, protestando e insultando a todo aquel que ose tener una mentalidad diferente a la suya, a todo aquel que pretenda oponerse a su idea de exprimir el recurso un poco más allá.

Por culpa de la mentalidad absurda de la IAB, de algunos anunciantes y de muchas agencias, me muevo por la red con una VPN, un bloqueador de anuncios y un software anti-trackers. Comparado con cuando empecé a utilizar internet, hoy me siento como moviéndome por una zona de guerra, y la principal responsable de ello es la industria de la publicidad y su mentalidad equivocada de que el usuario carece completamente de derechos y tiene que aceptar todo lo que le digan. “Como yo trabajo mucho para crear estos contenidos, tú tienes que aceptar mis términos si quieres leerlos”. Posiblemente, la mentalidad más estúpida del mundo después de la de “no te doy mis productos de ninguna forma lógica ni razonable, pero si los quieres conseguir tú por tu cuenta utilizando las herramientas que la tecnología te da, estás robando”.

Dentro de poco, los bloqueadores de publicidad no vendrán únicamente de compañías como la alemana Eye/O y similares: será incluso la propia Google la que los incorpore por defecto en sus herramientas. Una jugada que por un lado es profundamente conflictiva – te bloqueo la publicidad mala, pero la mía no porque es de la buena y eso lo decido yo – pero por otro, tampoco es nueva: fue esa misma Google la que, hace algunos años, tuvo que entrar igualmente como elefante en cacharrería para acabar con el fenómeno de los espantosos pop-up, que la industria y la IAB consideraba en su momento como algo “normal y aceptable”, simplemente “un formato más”. Que sea una empresa que vive en un porcentaje elevadísimo de la publicidad la que constituya una asociación para intentar lidiar con el problema y la que tenga que dar el paso de instalar un bloqueador de publicidad en los navegadores de sus usuarios prueba, una vez más, mi punto: muchos anunciantes, soportes, agencias, y sobre todo, la IAB, han perdido completamente el norte.

Relájese y tranquilícese todo el mundo: internet no va a morir porque los usuarios se instalen extensiones para bloquear la publicidad. Las compañías inteligentes, buscarán maneras de financiar su actividad que tengan sentido y que no conlleven supuestos contratos insostenibles. Los anunciantes que entiendan internet, dejarán de obsesionarse con las métricas erróneas, abandonarán la estúpida idea de que “la publicidad, si no molesta, no vende”, y optarán, aunque sea obligados, por una actitud lógica de respeto y no agresión. Los soportes entenderán que su valor no solo está en la información, sino en cuidar al usuario, mimarlo, respetarlo y trabajar con él, no contra él. No, los malos y los culpables de todo no somos los usuarios por instalarnos un bloqueador de publicidad, son ellos por no ver más allá de su ombligo y por olvidar toda concepción de sostenibilidad en su industria. Los anunciantes, las agencias y los soportes no son los dueños de internet. Internet es mucho más que idiotas ombliguistas empeñados en que el usuario tiene que soportarlo todo para acceder a sus contenidos. Esos idiotas, sencillamente, tienen dos opciones: cambiar su mentalidad y optar por contratos psicológicos con el usuario que tengan sentido, o morir. Y si no van a cambiar, por favor, que mueran lo antes posible.

 

Powered by WPeMatico

Project Sunroof y las magnitudes en energía

Project Sunroof - GoogleMi columna de esta semana en El Español se titula “Lo que nos estamos perdiendo“, y vuelve al tema de la energía solar y la generación distribuida, al hilo de la primera expansión del Project Sunroof de Google fuera de los Estados Unidos, a Alemania, en asociación con una compañía eléctrica clásica, E.ON. Habría mucho que decir sobre la relación entre esa compañía y nuestro país, pero tendríamos que bajar hasta lo más hondo de las catacumbas de la corrupción institucionalizada en España, y no es un tema en el que toque entrar en este lugar y momento.

El Project Sunroof de Google es una manera de hacer tangible la generación de energía solar utilizando Google Earth y Google Maps para, a partir de la dirección de una casa, ser capaz de calcular la insolación que recibe y la superficie de su tejado, lo que permite, trabajando con compañías eléctricas, establecer un marco de los ahorros que podría generar en su factura. Obviamente, la propuesta de valor más clara es para quienes viven en viviendas unifamiliares, pero puede utilizarse también en comunidades para tener una idea de lo que estamos hablando.

En un país como España, con un nivel generalmente elevado de insolación y una anomalía fruto de un nivel de corrupción generalizado como el “impuesto al sol”, que pretende desincentivar la autogeneración a nivel doméstico, herramientas como Project Sunroof resultarían importantísimas para que los usuarios tuviesen una idea real de lo que se están perdiendo al no aprovechar una fuente de energía como el sol. Frente a escépticos trasnochados que siguen aún afirmando que “la energía solar no es rentable si no se subvenciona” – algo que dejó de ser verdad hace mucho tiempo en virtud de la evolución del precio de las placas solares gracias a la ley de Swanson – y que aún toman como norma de fe generalizada aquellos escasísimos casos de fraude en los que los propietarios de granjas solares utilizaban generadores diesel para generar energía por las noches (que en realidad ni siquiera se trataba de un fraude como tal, sino de una reserva de la capacidad de generación provocada por un plazo establecido artificialmente a los propietarios) , la gran verdad es que no aprovechar esa capacidad de generación es completamente absurdo, y que los costes, aparte de lo que la fría cifra que la calculadora de Project Sunroof sea capaz de arrojar, van mucho más allá en términos medioambientales.

En cuestión de expectativas, es fundamental ser realista. Es muy posible que en muchos casos, las posibilidades de la generación solar doméstica no sean suficientes para cubrir todas las necesidades de una casa. En invierno, con menos horas de sol y con una demanda más elevada de electricidad, es muy posible que sea necesario recurrir a una compañía eléctrica para cubrir determinados momentos. Es muy razonable pensar en escenarios de generación distribuida en los que las compañías eléctricas sigan siendo quienes poseen y operan las instalaciones sobre los tejados de muchos hogares, pero incluso en ese caso, habremos ganado mucho en términos medioambientales.

Proyectos como este son muy necesarios en España para entender lo que nos estamos perdiendo. En Alemania necesitan Project Sunroof para calcular lo que se ahorrarían: en España, lo necesitamos para entender cuánto nos están robando unos políticos corruptos y unos impuestos completamente fuera de lugar. Lo necesitamos para evidenciar lo que hay, para generar presión sobre la retirada del impuesto al sol. Lo necesitamos para sacar la basura. Si Google quiere generar una diferencia con su proyecto, España es un buen sitio para lograrlo. Para evidenciar el nivel de cerrazón intelectual y de corrupción al que muchos políticos pueden llegar. A ver si alguna de las compañías eléctricas en nuestro país se decide a recoger el guante de Google y se convierte en socia de este gran proyecto.

 

Powered by WPeMatico

La percepción de la innovación

Peter Diamandis Twitter survey on innovationPeter Diamandis, fundador de la X Prize Foundation y de la Singularity University, lanzó una pregunta a sus casi cien mil followers en Twitter qué compañía consideraban más innovadora, con cuatro opciones: Amazon, Google, Facebook o Tesla. Obviamente, la encuesta no pretende tener valor científico ni ser exhaustiva, y de hecho, no añadió más compañías simplemente porque el formato de las encuestas en Twitter está limitado a cuatro opciones, pero los resultados, tras más de 1,600 votos emitidos dejan lugar a muy pocas dudas: Tesla gana por goleada. Prácticamente la mitad de los votos se inclinaron por la compañía de Elon Musk.

Como el propio Diamandis analiza, los resultados son sumamente interesantes: Google y Amazon invierten, según sus resultados de 2016, más de $50,000 millones cada uno en I+D, por encima de la totalidad del valor de mercado de Tesla, y sin embargo, en la encuesta, recibe más votos que la suma de los de Amazon y Google. ¿Qué lleva a semejante disparidad en la percepción de su contribución a la innovación? ¿Y qué pensar de una Facebook que es, posiblemente, uno de los mejores laboratorios del mundo a la hora de convertir ideas en código y que ha redefinido completamente el concepto de interacción social, pero que únicamente es percibida como innovadora por un escaso 3% de los participantes en la encuesta?

La respuesta, según el análisis de Peter, tiene que ver con elementos como lo que denomina el Massively Transformative Purpose (MTP), la percepción de la capacidad para provocar un cambio a un nivel elevado, una disrupción. Desde sus orígenes, Tesla, como el resto de las iniciativas de Elon Musk, no es una empresa orientada a maximizar sus resultados económicos, sino a provocar el cambio en la industria de la automoción. La forma de actuar de Tesla la convierte, de hecho, en el líder percibido de una industria centenaria en la que no es en absoluto ni la empresa más grande, ni la más rentable (pierde dinero, y no precisamente poco), ni muchísimo menos la que más vehículos vende. Sin embargo, y para desesperación de sus competidores, es la que marca claramente la agenda y el camino a seguir, la que condiciona el calendario para compañías mucho más grandes. A partir del momento en que Tesla no solo se convierte en protagonista mediática, sino que además, es capaz de poner vehículos en el mercado con notable éxito y de abrir sus patentes invitando a otras compañías a que las utilicen, se convierte en una verdadera fuerza transformadora que literalmente obliga al resto de compañías a emprender iniciativas centradas en el vehículo eléctrico y autónomo, quieran o no. La diferencia entre los calendarios de implantación que manejan las compañías tradicionales y Tesla es tan brutal, que evidencia claramente quién sigue a quién, quién lidera ideológicamente ese mercado.

Otras cuestiones están claramente relacionadas con la personalidad del fundador: Elon Musk no solo es un líder capaz de comunicar constante e incansablemente a través de Twitter y de entrar en conversación de manera constante, sino que además, consigue marcar también gracias a ello la agenda mediática. Para aquellos CEOs que piensan que Twitter o las redes sociales son de alguna manera “una pérdida de tiempo” que no se pueden permitir porque “están muy ocupados dirigiendo una compañía”, Elon Musk marca la contradicción absoluta, la evidencia de que su actitud es algo absurdo que deberían hacerse mirar, por el bien de su compañía y, sobre todo, de sus accionistas.

Finalmente, un detalle más, y no precisamente pequeño: Tesla no fabricas “ideas” ni “conceptos, sino vehículos. Automóviles. Máquinas grandes, con cuatro ruedas, que se mueven y son muy, muy tangibles. No, hacer un motor de búsqueda o construir la tienda más grande del mundo no es algo sencillo ni está al alcance de cualquiera, pero la percepción de innovación se incrementa con la tangibilidad, con la facilidad de comprensión del resultado, con la concreción, mientras que se difumina en compañías que “juegan a todo”. Hardware is hard, el hardware es difícil, y esa dificultad tiende a corresponderse con una valoración de la innovación más elevada.

Si quieres que tu compañía sea de verdad percibida como innovadora, no te preocupes por sus resultados económicos, preocúpate por la transformación que va a generar, por la manera en que tu idea va a cambiar el mundo. El dinero ya vendrá cuando lo hayas hecho. Preocuparse por el dinero… es de pobres.

 

Powered by WPeMatico

Reinventando la investigación médica

Project BaselineMi columna en El Español de esta semana se titula “Descifrando la vida” y habla sobre Verily, una spin-off de Alphabet anteriormente conocida como Google Life Sciences, dedicada a la investigación en las ciencias de la salud, que se ha propuesto hacer posiblemente una de las investigaciones más ambiciosas de la historia en el ámbito de la medicina: un estudio longitudinal que abarcará a más de diez mil candidatos a lo largo de más de diez años.

La idea de Project Baseline es utilizar la tecnología disponible actualmente para plantear un seguimiento detallado a diez mil personas que vivan cerca de alguna de las tres clínicas incluidas en el experimento (Stanford, DukeCalifornia Health & Longevity Institute). A lo largo del estudio, los voluntarios, que no obtendrán compensación económica alguna y simplemente se beneficiarán de un nivel de monitorización más elevado que el habitual, serán objeto de un riguroso seguimiento y escrutinio que incluirá analíticas y pruebas diagnósticas periódicas de diversos tipo, el uso de dispositivos para registrar su actividad física o de sensores bajo su cama para evaluar la calidad del sueño, secuenciación completa de su genoma, etc. La totalidad de sus datos médicos serán compartidos con la compañía, que podrá además explotarlos mediante alianzas con compañías farmacéuticas o equipos de investigación médica respetando una serie de medidas de protección de la privacidad. 

A lo largo del estudio, un cierto porcentaje de los voluntarios estudiados padecerá dolencias de diversos tipos, que serán estudiadas con detalle para tratar de establecer relaciones causales entre los datos que han ido generando y el origen, evolución o transmisión de su enfermedad. Cualquier persona que conozca con cierto detalle los procesos implicados en investigación biomédica se dará rápidamente cuenta de que con proyectos de este tipo, del mismo modo que con ese Apple ResearchKit del que hablamos hace ahora unos dos años, estamos en realidad reinventando de una manera radical toda la investigación en ciencias de la salud, accediendo a tamaños muestrales antes completamente inimaginables, y a una riqueza, volumen de datos y nivel de detalle a los que anteriormente jamás habíamos podido pensar en acceder. En realidad, lo que estamos planteando es la auténtica transformación digital de la investigación biomédica, con todo lo que ello conlleva: cambios radicales en los canales y la relación con los pacientes, redefinición total de los procesos internos para orientarlos completamente a la generación y análisis de datos, y modelos de plataforma para posibilitar la entrada de distintos socios capaces de enriquecer o beneficiarse mútuamente del proyecto.

¿Qué avances en el campo biomédico van a poder surgir del planteamiento de estudios como este? ¿De qué tipo de adelantos hablamos cuando pensamos en escalar algo como la investigación biomédica a estos niveles, y apalancarla con todas las posibilidades que permite el entorno tecnológico en que vivimos hoy?

 

Powered by WPeMatico

Cuando la publicidad programática no atina

IMAGE: Samuraitop - 123RFGoogle se ha encontrado con un serio problema en el Reino Unido, cuando de repente, el gobierno y algunos grandes anunciantes hicieron pública su decisión de interrumpir la publicidad institucional en YouTube debido a la aparición de anuncios gubernamentales en páginas de vídeos con contenidos calificables como de incitación al odio, racistas, antisemitas, extremistas o de mal gusto.

El problema, que ha obligado a la compañía a prometer controles más rigurosos en el etiquetado de ese tipo de contenidos, hace evidentes las carencias del esquema publicitario que más crece en la red: la publicidad programática o real-time bidding, en la que cada impacto proviene de un proceso de subasta en tiempo real de la audiencia supuestamente cualificada de una página.

La supuesta idea de hacer llegar el anuncio correcto a la persona adecuada y en el momento perfecto, administrada mediante un sistema que permite al más interesado formular el precio más elevado, choca con muchos problemas en su conversión en realidad. Y uno de ellos es tan claro y evidente como que los contenidos no pueden ser definidos únicamente por las audiencias que congregan, y menos aún si cualificamos a esas audiencias únicamente en función de unas pocas variables sociodemográficas. La realidad, como todos sabemos, es mucho más compleja que unas pocas variables.

En el caso de YouTube, resulta evidente que Google tiene un problema: las cifras que mueve, en torno a trescientas horas de vídeo recibidas y publicadas cada minuto que pasa, hacen imposible una supervisión manual: se calcula que serían necesarias unas cincuenta mil personas viendo vídeo constantemente durante ocho horas al día para poder llevarla a cabo. En su lugar, YouTube emplea un sistema de alertas basadas en herramientas para la comunidad de usuarios: cuando varias personas marcan un vídeo como ofensivo, este pasa a un sistema de supervisión manual que podría llevar a varias medidas, desde su eliminación total de la plataforma a su exclusión del sistema de publicidad, pasando por bloqueos locales, exclusión de determinadas audiencias, u otras posibilidades.

El problema para un gobierno o compañía no termina simplemente diciendo “yo no sabía nada” o “no tengo ni idea de en qué sitios sale mi publicidad”, porque aunque nadie tenga por qué asumir que una publicidad determinada suponga el estar de acuerdo con los contenidos de una página, la cuestión va mucho más allá de un simple problema estético: es que con la impresión publicitaria se está contribuyendo a financiar al creador del contenido. De ahí que la idea de que con dinero público o con los beneficios de una marca se estén aportando recursos a causas como el racismo, la xenofobia, el odio, el terrorismo o el antisemitismo, entre otras, resulte tan preocupante.

Por otro lado, la cualificación de los contenidos está lejos de ser el único problema de la publicidad programática. A medida que crece y se generaliza este mecanismo, se está dando lugar a un ecosistema en el que cunde la sensación de que “todo es mentira“: audiencias generadas a golpe de bots, cantidades crecientes de click fraud, reproducciones de vídeo simuladas o inexistentes, analíticas falseadas… hace algún tiempo, escribía en El Español sobre la necesidad de un reset para la industria de la publicidad en general: en muy poco tiempo, la red ha pasado de representar la promesa de un medio perfecto para alcanzar con nuestros mensajes publicitarios a las personas a las que más les pudiesen interesar, a convertirse en una especie de salón de los espejos en el que se fabrica tráfico, se compra tráfico, se vende tráfico y se simula tráfico. 

Una vez más, se cumple la regla general: una vez creado un ecosistema atractivo y sometido a un fuerte crecimiento, no tardan en aparecer aprovechados dispuestos a enturbiarlo, a timar a incautos y a destrozar su propuesta de valor. Nada nuevo bajo el sol.

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico