Category Archives: machine learning

Auto Added by WPeMatico

Medicina: ¿sustituyendo o asistiendo?

IMAGE: Natalia Merzlyakova - 123RFUn artículo de CNN titulado What happens when automation comes for highly paid doctors comenta el reciente crecimiento de la tendencia hacia el desarrollo y utilización de sistemas de diagnóstico de imagen – radiografías, tomografías, resonancias magnéticas, ultrasonidos, etc. tradicionalmente interpretados por un médico, un especialista o un radiólogo – para su interpretación mediante sistemas que procesan el diagnóstico mediante visión computerizada y algoritmos de machine learning, entrenados a partir del extenso archivo recopilado a lo largo de muchos años de práctica.

El uso de herramientas de diagnóstico mediante imagen ha ido creciendo a lo largo del tiempo, y además de ser profusamente utilizado, supone un elemento muy importante del coste: donde antes un médico tenía que procesar manualmente unas pocas imágenes, ahora es perfectamente habitual que en una sola prueba se obtengan cientos o incluso miles de imágenes en finas capas, en procesos que pueden llegar a ser profundamente aburridos y que incrementan la probabilidad de error debido al cansancio o la pérdida de atención.

¿Puede un algoritmo ser capaz de reconocer en una imagen elementos de diagnóstico? Sin duda. ¿Puede, además, llegar a hacerlo mejor que un profesional especialmente entrenado para ello? Todo indica que, a medida que esos algoritmos son entrenados con más y más imágenes y sus posteriores resultados diagnósticos, esa posibilidad se convierte en una realidad, y que muy probablemente estemos ante mecanismos en los que la probabilidad de pasar por alto un indicio con trascendencia diagnóstica en una imagen sea significativamente menor que en el caso de que ese diagnóstico sea llevado a cabo por un humano.

Precisamente sobre este tema estuve hablando en el pasado Netexplo con Pooja Rao, co-fundadora de la startup india Qure.ai, que fue una de las compañías que obtuvieron galardón y la que me pidieron que entrevistase en el escenario. Pooja contaba con la experiencia perfecta para comentar el tema: además de ser médico de formación, había co-fundado una compañía dedicada al diagnóstico de imagen mediante machine learning, y trabajaba precisamente con médicos a los que trataba de convencer para que contribuyesen al entrenamiento de los algoritmos ofrecidos por su compañía, con un argumento claro: la posibilidad de poder obtener mejores diagnósticos, más seguros, más consistentes y con menos posibilidades de pasar por alto elementos clave.

Una imagen de diagnóstico médico es un fichero digitalizable o, cada vez más, directamente digital. Convertir esas secuencias de píxeles en elementos capaces de ser procesados algorítmicamente es algo que cae perfectamente dentro de las posibilidades del machine learning, en un ámbito, el de la imagen, en el que ya se han obtenido numerosos progresos. Que lleguemos a un momento en el que el análisis de una imagen se lleve a cabo directamente tras su obtención, o incluso durante la misma – para permitir un muestreo más exhaustivo de determinadas áreas – o, incluso, a un momento en el que los médicos directamente pierdan la capacidad de utilizar ese método diagnóstico por falta de práctica es algo que, a día de hoy, cabe perfectamente dentro de los escenarios posibles. En este momento, un algoritmo es capaz de procesar e interpretar una resonancia magnética de corazón, por ejemplo, en unos quince segundos, un examen que puede necesitar unos 45 minutos cuando lo lleva a cabo un cardiólogo o radiólogo.

En ese caso, ¿qué papel pasa a tener el médico especialista? Sencillamente, el de encargar la prueba diagnóstica e interpretar el análisis de la misma llevado a cabo no por sí mismo o por un radiólogo, sino por un algoritmo. El propio radiólogo pasaría a ser un interpretador avanzado de esos diagnósticos, un gestor de un instrumento que sigue los indicios marcados por un algoritmo y trata de ofrecerle elementos adicionales de diagnóstico, o tal vez, el que lleva a cabo un segundo análisis manual basado en los indicios encontrados por el algoritmo. ¿Realmente vemos ese proceso como una sustitución, o más bien como una asistencia especializada que mejora las capacidades del facultativo? ¿Perderían los radiólogos su trabajo, o simplemente deberían reciclarse para aprender a aprovechar una herramienta diagnóstica mucho más potente, capaz de ver lo que un ojo clínico bien entrenado anteriormente no veía? ¿Llegaremos a un momento en el que el diagnóstico mediante imagen sea algo que debe necesariamente ser llevado a cabo por un algoritmo, porque mejore sensiblemente el número de ocasiones en las que un indicio se pasa por alto o se dé lugar a un número menor de falsos positivos? ¿Llevará el hecho de que sea un algoritmo el que procesa las imágenes a que se puedan obtener muchas más, dada la mayor facilidad de procesamiento derivada de que que no sea un médico quien deba revisarlas todas una por una, y por tanto, termine redundando en mejores diagnósticos? ¿Alguien podría llegar a ver un proceso así como negativo?

 

 

 

This post is also available in English in my Medium page, “Medicine and machine learning: replacing or assisting?” 

 

Powered by WPeMatico

El hombre algorítmico

IMAGE: Leo Blanchette - 123RFUna noticia en el Technology Review del MIT, Your best teammate might some day be an algorithm, me lleva a pensar en ese balance entre el desarrollo de más y más capacidades en las máquinas que, sin duda, pueden llevar a que muchos trabajos dejen de tener sentido, y la visión particular que siempre he tenido de mi trabajo viéndose cada vez más potenciado por el uso de ese tipo de tecnologías.

Francamente, nunca he tenido demasiado miedo de que un algoritmo me deje sin trabajo. Será porque me dedico a algo que pocos ubican en las quinielas de trabajos a ser rápidamente sustituidos por robots o por la flexibilidad absoluta que la institución para la que trabajo me ofrece a la hora de enfocar mi actividad, pero siempre he pensado que si todo mi entorno se ve revolucionado por la tecnología, seguiré teniendo posibilidad de estudiarlo y explicárselo a alguien a quien le pueda añadir valor.

Así, el enfoque de un desarrollo de herramientas algorítmicas enfocado en la colaboración me lleva a plantearme qué cosas podré hacer cuando algunas de las partes de mi trabajo que menos me gustan y que, posiblemente, menos valor añade, puedan ser llevadas a cabo por algoritmos, cada vez más fáciles de desarrollar y educar gracias a herramientas cada vez más sencillas.

Nuestro trabajo y nuestra vida en general están cada vez más rodeados de herramientas, que aportan una eficiencia cada vez mayor. Sin embargo, fallan aún algunos elementos: el primero de todos ellos es el que afecta a la visión de automatización incompleta de muchas tareas, que no llegan a suponer automatismos exactos, sino que están sujetas a una cierta variabilidad o “toque humano”, y que precisamente por eso, las herramientas aún no aciertan a llevar a cabo con el nivel de rendimiento adecuado. Durante muchos años, las herramientas se han planteado la automatización como una manera de replicar procesos de manera idéntica y predecible, un enfoque que se ha mostrado limitado. La posibilidad de introducir en esos algoritmos pasos que repliquen en algunos puntos el juicio de un humano en función de datos generados anteriormente permitirían establecer procesos de automatización mucho más potentes, planteados en función de diversos parámetros, y con mayor posibilidad de añadir valor. Hace relativamente poco tiempo, separar el spam del correo electrónico era una tarea pesada y manual. Ahora, prácticamente nada escapa al algoritmo, y la carpeta de spam ya prácticamente no merece supervisión manual. Y como eso, mil cosas más.

Muchas de las tareas que llevo a cabo a lo largo del día precisan de atributos que aún son inequívocamente humanos. Pero muchos otros tienen un componente mucho más mecánico y repetitivo, y podrían beneficiarse claramente de un tratamiento algorítmico. Antes de ver cómo los robots roban nuestros trabajos, veremos muchos otros casos de desarrollo de algoritmos que nos permitan niveles de automatización muy superiores que los que conocemos hoy, en tareas que no son completamente repetitivas, pero que llegan a parecérnoslo, y que potenciarán nuestras capacidades al tiempo que liberan tiempo para otras tareas. En muchos casos, cuando los algoritmos y los robots ya puedan hacer nuestro trabajo, nosotros ya estaremos haciendo otros trabajos diferentes, siguiendo un enfoque que, en función de lo ocurrido en épocas anteriores que ya son historia, me parece mucho más adecuado, constructivo y lógico. Cuantos más algoritmos veo, más quiero trabajar con ellos, aplicarlos a mi día a día y sentir que potencian mis capacidades como ser humano.

 

 

 

This post is also available in English in my Medium page, “Man and algorithms” 

 

Powered by WPeMatico

Estúpidos semáforos…

IMAGE: Lasse Kristensen - 123RFLa ciudad india de Bangalore, sometida a un nivel de atascos en su tráfico rodado que ha convertido el desplazarse por ella en un auténtico infierno, ha puesto en marcha Gridlock Hackathon, un concurso para desarrolladores y compañías tecnológicas promovido por el gigante del comercio electrónico indio, Flipkart, y destinado a la búsqueda de soluciones para el tráfico en la ciudad. Aunque el premio es equivalente a tan solo unos 5,500 dólares, la idea ha atraído a concursantes de todo tipo, desde empresas tecnológicas locales que sufren el tráfico como Ola Cabs, hasta gigantes como Microsoft, Google o Amazon.

Entre las propuestas recibidas hay de todo: coches voladores, redes de túneles… pero también hay algunas dedicadas a lo más lógico y obvio: el uso de sistemas basados en algoritmos de machine learning para llevar a cabo una regulación más eficiente de la red de semáforos.

¿Cuanto tiempo pasas, cuando te desplazas por tu ciudad, detenido ante una luz roja de un semáforo? El primer semáforo, dotado con luces de gas e instalado en el exterior del Parlamento londinense, comenzó a funcionar el 9 de diciembre de 1868, con el fin de controlar el tráfico en las vías adyacentes. Su vida fue muy limitada: el 2 de enero de 1869, menos de un mes después de su montaje, explotó a causa de una fuga de gas en el pavimento, y provocó graves quemaduras al policía que lo operaba de manera manual.

Desde esos accidentados comienzos, lo cierto es que la tecnología que hay detrás de los semáforos en la inmensa mayoría de las ciudades ha evolucionado muy poco en prácticamente siglo y medio: las luces ya no son de gas, son eléctricas y van pasando gradualmente de la incandescencia convencional al LED, y ya no las acciona un policía, sino que se encienden y se apagan en intervalos programados. Pero esencialmente, carecen de inteligencia alguna, y como mucho, poseen un par de ciclos, uno diurno y otro nocturno. El uso de “semáforos inteligentes“, en general, se limita a señales como las que evalúan mediante sensores la velocidad de los vehículos que se aproximan y les recomiendan reducirla.

La tecnología actualmente disponible permitiría perfectamente evaluar el volumen de tráfico de una vía, compararla con el de las vías con las que se cruza, y saber si hay peatones esperando pasar. Simplemente dotando de un mínimo de inteligencia a los semáforos y conectándolos entre sí podríamos hacer muchísimo más por el tráfico que con el absurdo sistema que tenemos actualmente, que se limita a encenderse y apagarse en intervalos prefijados y que, como mucho, envía a un agente de movilidad para anular manualmente las órdenes del semáforo cuando la congestión en la intersección o la zona alcanza un nivel determinado. La sensorización de las vías públicas para evaluar los niveles de tráfico no es especialmente complicada ni extremadamente cara, y los algoritmos que evalúan la intensidad circulatoria y toman decisiones con las adecuadas restricciones no parecen muy difíciles de desarrollar. De hecho, hay sistemas, como el empleado por Waze, adquirida por Google en 2013, que calcula la intensidad circulatoria simplemente en función de los datos de localización y velocidad que envían los propios usuarios de la app, y que es capaz con ello de elaborar mapas notablemente precisos y detallados. No hablamos de proyectos faraónicos ni de trufar la ciudad con carísima infraestructura… hablamos de posibilidades que, en el estado actual de la tecnología, pueden tener muchísimo sentido.

Las posibilidades de una tecnología como esa son elevadísimas, y más teniendo en cuenta que nos aproximamos a una época, la del vehículo conectado y autónomo, en la que los propios vehículos estarían dotados de las capacidades de generación de datos mediante sensores y de comunicación para interactuar con la propia red de semáforos de la ciudad utilizando sistemas V2I, Vehicle-to-Infrastructure. Podríamos privilegiar la circulación del transporte colectivo para incentivar su uso, administrar las diferentes rutas en función de su intensidad y, en general, llevar a cabo una regulación del tráfico dotada de mucho más sentido común. Y sin embargo, aquí seguimos, sentados en los asientos de nuestros automóviles, esperando a que el estúpido semáforo vuelva a cambiar siguiendo un período que, en muchos momentos del día, no tiene ningún sentido de cara a optimizar la circulación.

Se nos llena la boca hablando de las smart cities, pero uno de los elementos que más determinan la vida de una ciudad, los semáforos, siguen funcionando con prácticamente la misma tecnología que cuando se inventaron hace siglo y medio. La tecnología está ahí, pero seguimos soportando atascos que podrían, en gran medida, mejorar. ¿Hay alguien al mando de algún ayuntamiento con capacidad para hacer algo que tenga algo de sentido común?

 

 

 

This post is also available in English in my Medium page, “Dumb traffic lights…” 

 

Powered by WPeMatico

Me, myself & AI: en el foro de la OCDE

Me, myself and AI - OECD ForumAyer tuve la oportunidad de participar como discussion leader en la sesión titulada Me, myself & AI encuadrada dentro del Forum de la Organización para la Cooperación y el Desarrollo Económico (OCDE): tres horas de interesantísima discusión en un formato intensamente participativo, en el que tratamos la evolución y el futuro de una escenario definido cada vez más por algoritmos de machine learning aplicados a todo tipo de ámbitos.

Europa Press recogió algunos de mis posicionamientos durante el foro, en una noticia que han titulado “Dans (IE) insta a las empresas a reorganizar su actividad en torno a los datos para ser competitivas” y que hoy aparecen reflejados en diversos medios: la necesidad de orientar la actividad de las compañías a la obtención de datos, con el fin de poder alimentar algoritmos que nos doten de capacidad de gestión eficiente, rápida y diferencial. Estamos aún muy lejos del desarrollo de una inteligencia artificial de propósito general como tal, pero los algoritmos de machine learning van posicionándose cada vez más como soluciones óptimas para un número creciente de tareas, y además, han disminuido enormemente sus barreras de entrada. La aparición de plataformas de Machine Learning as a Service (MLaaS) y los movimientos de las grandes compañías tecnológicas para posicionarse en ese ámbito mediante la adquisición de startups con actividad en ese área están determinando un escenario que cada vez tiene más influencia a la hora de definir la competitividad de las compañías: los algoritmos de machine learning definen qué productos son ofrecidos a qué clientes potenciales, políticas de pricing, prevención del abandono o churn, detección de posible actividad fraudulenta, opciones en la determinación del marketing mix, y cada vez más cosas.

Pero más allá de este tipo de cuestiones, con indudable influencia en la actividad de las compañías a día de hoy, y sin caer en el hype y la desinformación que supone pensar que ya vivimos rodeados de inteligencia artificial, la oportunidad de participar en un foro como el de ayer, con especialistas de diversas compañías, personas que llevan años desarrollando algoritmos en aspectos como procesamiento del lenguaje o visión computerizada, o con políticos que están tomando decisiones que condicionan las posibilidades de actuación de las compañías resulta verdaderamente interesante. Entre las cuestiones que discutimos en el foro estuvieron, entre otras, como estructurar las variables dependientes que un algoritmo debe optimizar (y qué supone optimizarlas), la necesidad de pensar el la articulación de un nuevo sistema operativo en el que se desarrollarán muchas partes significativas de la actividad humana, o la interacción entre algoritmos y personas. En mi intervención, intenté plantear ese tipo de cuestiones como si fueran un lenguaje de programación: cuáles serían las variables a definir y cómo se definen, cómo se estructuran los condicionales, y cómo generamos bucles que ofrezcan un control de la actividad resultante, además de tocar las necesidades de preparación de las personas y las habilidades que vamos a tener que desarrollar de cara a ese entorno, en una entrevista que publicaré en cuanto esté disponible. También surgieron interesantes discusiones en torno a temas éticos, a posibles conflictos entre las decisiones de un algoritmo y las de una persona, al dilema de la caja negra o a los posibles sesgos que se pueden generar y a su posible supervisión.

Este tipo de foros de la OCDE tienen una gran importancia de cara al desarrollo de líneas de pensamiento que influencian el entorno legislativo y las decisiones de actores de muy diversos tipos en empresas, gobiernos y organismos de todo tipo. Agradezco enormemente a la OCDE la oportunidad de participar. En cuanto tenga disponible más materiales sobre la jornada, los iré añadiendo a la entrada.

 

 

This post is also available in English in my Medium page, “Me, myself & AI: in the OECD forum

 

Powered by WPeMatico

Tecnología y perspectiva

Tecnología y perspectiva - Capital (pdf)

Jordi Benítez, de Capital, me pidió una columna con motivo de los doscientos números de la revista, en la que intentase aplicar un poco de perspectiva a la evolución tecnológica que hemos vivido en lo que llevamos de siglo. El resultado se titula precisamente así, “Tecnología y perspectiva” (pdf), y está disponible en el número de este mes.

El encargo me hizo cierta ilusión: Jordi se incorporó a Capital allá por el año 2000, precisamente cuando yo volvía de California tras terminar allí una estancia de cuatro años para obtener mi doctorado, hemos colaborado en bastantes ocasiones, y la columna representaba la oportunidad para revisar diecisiete años trepidantes y dinámicos de historia reciente, de una historia de la que él como periodista y yo como académico nos hemos dedicado a ser cronistas.

¿Qué decides destacar cuando tienes setecientas palabras para resumir diecisiete años en los que no has parado de escribir de manera prácticamente compulsiva? Tras darle unas cuantas vueltas, mi decisión fue tomar como referencias evolutivas tres momentos que considero especialmente significativos: la revolución que supuso la llegada de las puntocom y su posterior crisis, los múltiples exponentes de resistencia al cambio por parte de industrias establecidas, y finalmente, el despertar del machine learning. En esos tres epígrafes están sin duda los elementos que más entradas o artículos me han llevado a escribir a lo largo de estos años.

A continuación, el texto completo de mi columna:

Tecnología y perspectiva

Hacer memoria y retrotraernos a lo que la tecnología significaba hace tiempo no es un ejercicio sencillo: el escenario se mueve a tal velocidad, que hace difícil mantener elementos de referencia: si los tenemos, seguramente es porque estamos obsoletos, y que nos aferramos a esas referencias porque cambiar es algo que, sencillamente, nos da pereza. 

En mi caso, echar la vista atrás hasta el año 2000 es sencillo, porque fue un año importante para mí. Tras cuatro años viviendo en una California efervescente, volvía a España con mi título de doctor bajo el brazo, y me encontraba con que podía, en virtud de mi experiencia en un mercado reconocido como más avanzado y mi preparación como académico, escribir sobre los efectos de la tecnología y su adopción. Aunque nunca pretendí ganarme la vida con ello – la mayoría de mis colaboraciones con medios eran entonces gratuitas – sí me ha permitido mantener un registro escrito fiel de mis ideas, mis preocupaciones, y también mis – por supuesto – obsesiones, en relación con la evolución del entorno tecnológico. Diecisiete años escribiendo dan mucho de sí.  

Entiendo la tecnología como un entorno de un dinamismo brutal, en el que los cambios suceden a una velocidad impresionante. El final de siglo y la entrada del nuevo nos demostró precisamente eso: la crisis de las puntocom fue vista por muchos como una especie de “enmienda a la totalidad”, como si aquello fuese todo “una patraña” y nada tuviese importancia. Aquellos años se caracterizaron por una visión cercana a la de la magia, a la de la sorpresa, al “mira estos chicos tan ingeniosos, lo que han sido capaces de hacer y cuánto dinero han ganado”, como si fuese así, un chasquear de dedos y ya has montado una puntocom.

La realidad era otra. La supuesta magia era en realidad un trabajo intenso, horas de teclado, y la habilidad de convertir ideas en código ejecutable. Con el tiempo, en algunos países han entendido ya la inmensa importancia de la programación de cara al futuro, de entender que vivimos completamente rodeados de objetos programables, y que aprender a programar es tan fundamental como entender Física o Biología: una forma de aprender a vivir. En España, desgraciadamente, seguimos sin tenerlo claro, y las sucesivas reformas educativas se han enfocado… a otros temas. 

La “magia” de entonces dio paso a la inadaptación. Gran parte de lo que escribimos en la primera década del siglo representaba la constatación de que nuevas formas de hacer las cosas desplazaban a las antiguas, y de cómo los afectados trataban de resistirse a ello. Aquellos intentos de resistirse inútilmente al progreso nos mantuvieron entretenidos buena parte de la década: las empresas de contenidos y su insistencia en que los usuarios éramos malvados y perversos, en lugar de tratar de proporcionarnos sus productos en las condiciones que demandábamos. Con el tiempo, hemos entendido que el problema no nunca estuvo en los usuarios ni en la tecnología, sino en la palmaria falta de visión de unas compañías que pretendían que, en un mundo que había cambiado, todo se siguiese haciendo como ellos decían y de ninguna otra forma, algo que el tiempo probó completamente insostenible.

El avance del siglo nos trajo, sobre todo, la evidencia de que Gordon Moore, cofundador de Intel, era un genio, y que la aplicación de su ley nos permitía disfrutar de ordenadores cada vez más potentes y más pequeños. Tan potentes y pequeños que empezamos a ponerlos en todas partes, incluso en sitios insospechados, para dar lugar a la internet de las cosas. Y con todas esas cosas conectadas y generando datos, comenzamos a darnos cuenta de que nuestras capacidades analíticas se sublimaban, y que el aprendizaje y la inteligencia dejaban de ser patrimonio del ser humano: llegamos a la que, para mí, es la revolución más importante de lo que llevamos de siglo: el machine learning y la inteligencia artificial. 

Para mí, esos son los tres elementos que marcan mi perspectiva de este siglo: las puntocom, la resistencia al progreso y el machine learning como clave del futuro. Y en esas seguimos. Han sido diecisiete años trepidantes, rápidos, brutales. Y aún así, no son nada comparados con los maravillosos años que están por venir…

This post is also available in English in my Medium page, “Technology and perspective 

Powered by WPeMatico

Machine learning y competiciones

Machine learning competitions

Mi columna de El Español de esta semana se titula “Las máquinas y los retos“, y habla sobre las distintas competiciones que algoritmos de machine learning han ido disputando contra los humanos a lo largo de la historia reciente, al hilo de la nueva partida de Go disputada entre el algoritmo de Google, AlphaGo, y el joven genio chino del Go, Ke Jie, con victoria del primero.

Las dos partidas de Go jugadas por Ke Jie contra AlphaGo se produjeron en un contexto extraño: no solo tenían lugar después de las derrotas sucesivas de Fan Hui y Lee Sedol, otros de los mejores jugadores del mundo, sino que además, su emisión fue censurada por el gobierno chino, en un extraño ejercicio de mala interpretación del orgullo nacional. Para Ke Jie, que ha reconocido que el algoritmo de Google es ya “demasiado fuerte para los humanos” y se ha convertido en una especie de “dios del Go”, la situación es tan curiosa como la de ser utilizado como prueba, como argumento final de la superioridad de la máquina en el juego, un papel experimentado anteriormente por otro escaso puñado de humanos en otros juegos.

La importancia de este tipo de desafíos es relativa. En realidad, hablamos de acciones de comunicación, destinadas a obtener repercusión pública de trabajos que, de no utilizar este tipo de competiciones, sería muy difícil que expusiesen sus avances a un nivel que llegase a todos los públicos. A lo largo del tiempo, hemos ido viendo cómo los algoritmos de machine learning se apropiaban del ajedrez, del Jeopardy, del Go y, recientemente, del póker, sin que muchos se hayan parado a pensar qué era exactamente lo que cada competición pretendía demostrar.

En el ajedrez, la cosa era relativamente sencilla: hablamos de un juego de cálculo de escenarios. Cada movimiento genera un escenario nuevo, y los buenos jugadores son capaces de proyectar mentalmente las jugadas a las que puede dar lugar varios movimientos después. Cuando Kasparov pierde contra el Deep Blue de IBM en 1996, lo único que como humanos tuvimos que reconocer fue que una máquina era ya capaz de calcular escenarios probabilísticos mejor que el cerebro de una persona. Perfecto, cuestión de fuerza bruta computacional. Nada que nos ofenda cuando ya llevamos décadas utilizando calculadoras de mano u hojas de cálculo, y considerándolas no una amenaza, sino una bendición. Hasta aquí, todo bien.

Cuando, en 2011, otro producto de IBM, Watson, gana a los mejores jugadores de la historia en Jeopardy, la cuestión ya empieza a ser distinta. Aquí, una máquina está probando ser capaz de entender las muchas veces retóricas preguntas del Jeopardy expresadas en lenguaje natural, buscar sus posibles respuestas, escoger una de ellas, darle a un botón… y ganar. Después de Jeopardy, sabemos ya que un algoritmo va a ser mejor que las personas entendiendo el lenguaje que las propias personas han inventado, lo que abre paso a todo tipo de innovación en robots conversacionales, chatbots, abogados, médicos haciendo diagnósticos… lo que queramos.

En 2015, un algoritmo ya no de IBM, sino de Google, venció a dos de los mejores jugadores del mundo de Go, desafío que en estos días se acaba de completar con la tercera victoria. ¿De qué hablamos aquí? Este es el desafío que corona la importancia del deep learning. Tras mucho entrenamiento del algoritmo suministrándole todas las partidas de Go jugadas y registradas a lo lago de la historia, Google fue capaz de obtener un jugador muy bueno, pero que unas veces ganaba y otras no. Hasta ahí, había llegado a educar un algoritmo para jugar como los grandes maestros de Go, ni más, ni menos. Fue cuando pasó al deep learning cuando se produjo el diferencial: pusieron a la máquina a inventarse partidas que no se había jugado, a jugar contra sí misma, a explorar escenarios improbables. El resultado fue que en algunas de las partidas, AlphaGo empleó movimientos que jamás un humano había llevado a cabo en partida alguna, que tenían una probabilidad de uno entre diez mil, y logró vencer. Ahora, tenemos que vivir sabiendo que un algoritmo puede desarrollar su inteligencia para una tarea más allá de donde el ser humano ha sido capaz de hacerlo.

Finalmente, llegó 2017, y un algoritmo creado en la universidad de Carnegie Mellon, Libratus, fue capaz de vencer a algunos de los mejores jugadores del mundo de póker. El póker, un juego intrínsecamente humano, en el que varias cartas permanecen boca abajo y solo se puede especular sobre ellas, mientras tenemos como entradas de información el resto de cartas en la mesa y la información que los otros jugadores nos dan con sus apuestas, sean o no faroles. Tras 120,000 manos de póker jugadas a lo largo de veinte días, la victoria de Libratus fue absoluta e incondicional: los humanos no tuvieron ninguna posibilidad. ¿Qué significa esto? Sencillamente, que una máquina ya es capaz de analizar una situación de información imperfecta, sometida a incertidumbre, y puede tomar decisiones en ella con mejores resultados que los que podría obtener un humano. Eso mismo, tomar decisiones en entornos de información incompleta o imperfecta, incluida posiblemente información falsa, es lo que hace un directivo en una compañía, lo que yo llevo veintisiete años intentando que mis alumnos aprendan a hacer. Y el enfoque dado por Tuomas Sandholm, creador de Libratus, es precisamente ese: crear un algoritmo de propósito amplio. No está interesado en un algoritmo para jugar al póker, sino en uno capaz de llevar a cabo cuestiones como análisis de ciberseguridad, diagnósticos médicos o negociación empresarial.

Las competiciones y retos empresariales no hay que analizarlas simplemente como la estrategia de comunicación que representan para quien las hace, sino como lo que realmente significan en términos de logros, de demostración de posibilidades, de aplicaciones posibles. Si alguien aún duda de las posibilidades del machine learning, que venga y plantee el siguiente reto.

 

Powered by WPeMatico

¿Y si la clave de los modelos freemium estuviese en el machine learning?

IMAGE: Venimo - 123RFEs un tema al que llevo cierto tiempo dando vueltas, y que me está llevando incluso al desarrollo de un intento de taxonomía, de clasificación de algunos modelos de negocio en función de su potencial de cara a la explotación de sus datos mediante el machine learning… ¿y si la clave de muchos de los modelos de negocio freemium – basados en la combinación de una oferta gratuita unida a la de una oferta premium a cambio de un pago determinado –  estuviese en el desarrollo de esa oferta de servicios mediante la analítica y el machine learning?

Imaginemos, por ejemplo, un medio de comunicación: ¿podría ser posible que ofreciese sus noticias en abierto a todos los usuarios de manera gratuita, pero generase además una oferta adicional de servicios a cambio de un pago a aquellos usuarios que perciben un valor en ellas? ¿Cuántos usuarios estarían dispuestos a pagar, por ejemplo, por un sistema de alertas realmente basado en sus intereses, en función de todo lo que leen habitualmente, o incluso que les descubriese esos intereses aunque no fueran especialmente conscientes de ellos? ¿Cuál sería la clave para que ese medio de comunicación pudiese llevar a cabo esas alertas con una gran exactitud y certeza de que lo que está siendo recomendado es realmente lo que al usuario le interesa? Ni más ni menos que en la generación y  análisis masivo de datos, precisamente lo que un modelo gratuito debería ser capaz de ofrecer. ¿En qué momento las recomendaciones de libros de Amazon dejan de ser percibidas como una incitación a la compra compulsiva, y empiezan a ser un servicio valioso o incluso fundamental para un experto en un tema determinado?

¿Pagaríamos por un sistema que, en el caso de un servicio de música, fuese capaz de construirnos listas en función de una ocasión o un momento determinado, con una gran precisión y asegurándonos que las canciones elegidas responden adecuadamente a nuestros gustos? ¿Estaríamos dispuestos a rascarnos el bolsillo por una Twitter que nos separase las señales que nos interesan del inmenso ruido circundante, o incluso que hiciese las adecuadas comprobaciones y nos previniese su vamos a twittear o retwittear una estupidez? Si contamos con una base de datos adecuada, no cabe duda que eso es algo que un buen algoritmo de machine learning sería capaz de hacer bien. ¿Cuántas apps serían susceptibles de mejorar su propuesta de valor al usuario si llevasen a cabo un procesamiento adecuado de los datos? Hoy, algunas de esas apps, de hecho, ante la supuesta dificultad de los procedimientos analíticos implicados, ceden sus datos a cambio de dinero a terceros susceptibles de explotarlos, pero esa situación podría cambiar a partir del desarrollo progresivo de aplicaciones MLaaS, Machine Learning as a Service, servicios en la nube que permiten una gestión infinitamente más sencilla y sin necesidad de llenar la plantilla con decenas de científicos de datos para plantear y llevar a cabo los correspondientes análisis.

¿En cuántos de los servicios gratuitos que utilizamos hoy en día podría tener sentido incorporar un tramo de pago con productos construidos a partir de la analítica? Obviamente, no en todos ni para todo el mundo, pero ¿sería un planteamiento así razonable para endulzar la parte premium de algunos de esos servicios? ¿Hasta qué punto podría un modelo de negocio basado en el freemium beneficiarse de un conocimiento adecuado de las posibilidades que la analítica y el machine learning ofrecen a partir de sus datos?

 

Powered by WPeMatico

Justicia robótica

IMAGE: Kittipong Jirasukhanont - 123RF

Durante las últimas semanas, he estado utilizando un artículo de Wired, titulado Courts are using AI to sentence criminals. That must stop now, para generar discusiones interesantes en algunas de mis clases y conferencias: el uso de algoritmos en procesos judiciales en los Estados Unidos para determinar, por ejemplo, la probabilidad de reincidencia de un acusado, y su uso para administrar una sentencia más o menos dura dependiendo de ello.

Ayer, el New York Times comentó el tema al hilo del mismo caso que el descrito en Wired, el de Eric Loomis, un criminal enviado a prisión el pasado marzo por un juez que utilizó a instancias del fiscal el resultado de COMPAS, un algoritmo creado por Equivant, e hizo constar en el sumario que

“you’re identified, through the COMPAS assessment, as an individual who is a high risk to the community.”

(“usted ha sido identificado, mediante la evaluación COMPAS, como un individuo que representa un alto riesgo para la comunidad.”)

La defensa de Loomis ha alegado que el uso del informe generado por el algoritmo vulnera los derechos del acusado, por ser un algoritmo secreto que no puede ser inspeccionado ni estudiado, lo que impide que sea discutido o cuestionado de manera efectiva. En efecto, no se trata únicamente de que el algoritmo sea secreto debido al interés de su creador, sino que, como comentábamos hace algún tiempo, los procesos de machine learning generan cajas negras que una inteligencia humana no puede monitorizar, que solo pueden ser valorados en función de la calidad de su output, lo que genera un inmediato problema de transparencia.

El proceso es claro: un banco, por ejemplo, podría fácilmente comenzar a alimentar un algoritmo de machine learning con todo su archivo de préstamos e hipotecas a lo largo de la historia y sus resultados en cuando a pago o impago, y muy posiblemente se encontraría con que, al cabo del tiempo, los resultados del algoritmo podrían mejorar las decisiones de un comité de riesgos integrado por personas con amplia experiencia en banca. Si efectivamente es así, el banco podría optar por eliminar a su comité de riesgos y sustituirlo por el proceso automatizado, en aras no solo de una reducción de costes, sino también de un resultado económicamente mejor. Sin embargo, esa decisión, que llevaría a que los clientes del banco viesen cómo la decisión de si les conceden o no una hipoteca pasa a depender de un algoritmo, podría tener dos problemas:

  • Falta de transparencia: de acuerdo, no me concedes la hipoteca… pero, ¿qué debería hacer si quiero llegara obtenerla? ¿Cuáles han sido las variables que han hecho que no me la concedas, y cómo debería trabajar para mejorar mi elegibilidad a la hora de obtener esa hipoteca más adelante? ¿Cómo me explicas una decision que ni tú mismo entiendes, y de la que solo sabes que maximiza tus posibilidades de obtener la devolución del préstamo?
  • Sesgos: contrariamente a lo que algunos podrían pensar, el uso de un algoritmo no garantiza una mayor objetividad, sino un reflejo de los sesgos que pudiese haber en los datos originales. Si los datos con los que el banco alimentó a su algoritmo, por ejemplo, reflejasen algún tipo de tendencia histórica en la que se tendía a rechazar, por ejemplo, a los solicitantes de un grupo determinado en función de criterios como sexo, etnia, religión, etc., esos sesgos podrían consolidarse en el algoritmo obtenido a partir de ellos, pero ser difíciles de identificar por parte de una inteligencia humana.

En la justicia norteamericana, son cada vez más los procesos que están siendo colonizados por algoritmos: muchos abogados comienzan a utilizar algoritmos como Ross, basado el el Watson de IBM, no solo para determinar qué jurisprudencia es más relevante para el caso que están preparando, sino incluso para examinar los posibles sesgos del juez que tienen asignado basándose en todas sus decisiones anteriores en posibles casos similares, con todo lo que ello conlleva de cara a optimizar los argumentos utilizados. A medida que ese tipo de metodologías de trabajo se consolidan, los procesos de machine learning que los soportan van convirtiéndose en cajas negras dotadas cada vez de una mayor complejidad, con procesos que un humano es cada vez más incapaz de replicar o entender.

La robotización o algoritmización de la justicia podría, por un lado, convertirse en un posible recurso para muchos de los problemas generados por la saturación de los tribunales: todo caso suficientemente claro, sencillo o evidente podría dejar de ocupar valiosos recursos de un juez o tribunal humanos, y pasar a ser determinado por un algoritmo automatizado, como ocurre ya de hecho con muchas infracciones de tráfico, en las que el algoritmo, en realidad, tiene una necesidad de inteligencia muy baja: basta con que un requisito determinado se cumpla, para que se genere un resultado. A medida que la complejidad de los casos se incrementa, podemos encontrarnos con casos como el descrito, que pueden generar una indefensión: ¿cómo defenderme de un veredicto basado en una caja negra que simplemente valora una serie de variables de entrada y devuelve un resultado? ¿Debemos integrar la posibilidad de explicar el veredicto en los propios algoritmos, exigiendo una determinación de los pesos empleados o de los cálculos utilizados de manera que un humano pueda llegar a seguirlos?

Hace pocos días, en Netexplo, tuve ocasión de entrevistar en el escenario a la fundadora de una compañía de diagnóstico médico mediante imagen, Qure.ai. La conversación que mantuve me generó cuestiones muy interesantes: a lo largo del tiempo, una vez que los médicos adoptan el uso de su tecnología para determinar si una radiografía, un escáner o una tomografía muestran un tumor, la habilidad de un médico para examinar manualmente una imagen podría llegar a perderse por falta de práctica, y aunque la máquina, a medida que mejora su algoritmo, pase a ofrecer resultados mucho mejores que los médicos humanos, estaríamos ante una situación de pérdida de una habilidad que los humanos habíamos desarrollado como tal. Es el mismo tipo de argumento que el empleado por Nicholas Carr en “Superficiales” cuando pensamos, por ejemplo, que antes de los teléfonos móviles éramos capaces de recordar más números de teléfono de memoria: internet nos vuelve estúpidos, porque sustituye habilidades que antes teníamos y las convierte en innecesarias. O también , por supuesto, contra-argumentado de la misma manera: nadie sería capaz, hoy en día, de escribir sobre una piedra, porque nuevas tecnologías y soportes lo han convertido en innecesario… y no pasa nada, simplemente aceptamos que el contexto, y en este caso, la inteligencia artificial, redefine la inteligencia humana. Pero ¿qué ocurre cuando esa pérdida de la habilidad humana se convierte en decisiones “subcontratadas” a una caja negra que no podemos interpretar?

 

Powered by WPeMatico

Identificando patrones de difusión viral

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.

 

Powered by WPeMatico

La sustitución del hombre por la máquina y la carrera hacia el abismo

IMAGE: David Crockett - 123RF

Un artículo con predicciones de Stephen Hawking compartido en el World Economic Forum con sus perspectivas sobre la sustitución del hombre por la progresiva automatización y el uso de inteligencia artificial me lleva a reflexionar un poco sobre las circunstancias en las que se desenvuelven ese tipo de procesos.

El artículo considera las profesiones relacionadas con la conducción, como taxista o chófer, como una de las más susceptibles de sufrir el impacto de la automatización, con una probabilidad del 89%. La promesa de Mercedes Benz de poner en el mercado taxis completamente autónomos en un plazo de tan solo tres años, unida a las inyecciones económicas de algunos gobiernos en ese tipo de proyectos y a la entrada progresiva de nuevos competidores significativos como Apple o Cadillac parecen estar configurando una hoja de ruta en conducción autónoma cada vez más clara y decidida.

En este contexto, los modelos económicos que rodean el fenómeno parecen ir definiendo de una manera cada vez más clara un escenario de carrera hacia el abismo, en el que la dinámica competitiva en un escenario desregulado lleva a una caída cada vez más fuerte de los ingresos que termina por asfixiar a los competidores tradicionales, dejando espacio únicamente para los entrantes que son capaces de aprovechar mejor las ventajas tecnológicas.

Una startup californiana creada en torno al concepto de taxis autónomos, Voyage, anuncia sus intenciones de ofrecer en el futuro transporte completamente gratuito, posiblemente financiado mediante publicidad. La idea resulta profundamente provocativa, y enlaza con algunas de las interesantes reuniones que mantuve en las oficinas de Daimler en Stuttgart hace algún tiempo, en las que algunos de sus directivos de innovación afirmaban estar trabajando de cara al futuro con modelos en los que el transporte dentro de las ciudades evolucionaba hacia esquemas completamente gratuitos para el usuario, y planteados siempre en modo servicio en lugar de en términos de posesión de un activo utilizado de manera subóptima. La idea de sistemas de transporte completamente gratuitos en función de una exposición a publicidad o mediante modelos de esponsorización no resulta extraña cuando hablamos de ciudades como Londres, en las que por tan solo dos euros, una persona tiene acceso al uso ilimitado de una bicicleta pintada con el rojo característico del logotipo del Santander, durante veinticuatro horas.

En San Francisco, la compañía de taxis más grande de la ciudad, Yellow Cab Co-Op, ha sido vendida a un competidor por un total de ¢810,000, menos de lo que cuesta una casa en la ciudad. Los culpables de tan brutal depreciación no son únicamente Uber, Lyft y compañías similares que operan en la ciudad, sino la coincidencia de varias demandas por accidentes que resultaron en indemnizaciones multimillonarias, y dejaron a la compañía en bancarrota. En un escenario en el que la siniestralidad inherente a la conducción humana se convierte en una variable capaz de hundir compañías, la conducción autónoma, sujeta a un número dramáticamente inferior de accidentes, se perfila claramente como la alternativa triunfadora.

¿Puede pensarse en evitar la transición de una actividad configurada como tradicionalmente humana, como la conducción, hacia su automatización total, en un escenario en el que la dinámica competitiva se configura de esta manera? No, los procesos como tales son total y absolutamente inevitables, y aquellos que intenten negarlos se verán inmersos en la obsolescencia y en la pérdida de competitividad. La única solución es anticipar ese tipo de procesos y optar por sistemas que mejoren la cobertura social y las alternativas de los cada vez más afectados, en lugar de permitir una espiral descendente que termine generando un problema social irresoluble.

 

Powered by WPeMatico