Category Archives: machine learning

Auto Added by WPeMatico

China es el próximo líder mundial

IMAGE: Robodread - 123RFEl título del liderazgo económico mundial no es precisamente honorífico. A los Estados Unidos, esa posición le ha brindado durante décadas una ventaja fundamental, y se ha convertido en uno de los factores más importantes a la hora de dar forma al mundo tal y como lo conocemos. Pero a estas alturas, todo aquel que estudie o planifique de cara al futuro debería tener cada vez más claro que esa posición está a punto de cambiar: el próximo liderazgo mundial no va a ser ejercido por los Estados Unidos, sino por otro país que lleva tiempo preparándose para ello: China.

El plan de China para convertirse en líder mundial absoluto tiene mucho sentido, y empieza por entender el factor más importante en esa transición: los datos. Olvida todo planteamiento de la privacidad como un derecho: en un país en el que el estado es el principal proveedor de datos, lo sabe absolutamente todo y lo comparte con sus compañías, cuestiones como autentificarte con tus datos biométricos, disponer de un sistema de rating crediticio universal o desarrollar el famoso Departamento de Precrimen se convierten en posibilidades reales, que no chocan con todos los obstáculos habituales que encontramos lógicos y normales en el garantista mundo occidental.

El país ha conseguido dar forma a un mercado doméstico enorme, con actores completamente diferentes a los del resto del mundo: las principales compañías tecnológicas ya no son únicamente norteamericanas, y se ven ya preparadas para tomar por asalto los mercados mundiales, mientras las empresas líderes de la etapa anterior se ven acosadas por intentos legislativos de reducir un poder considerado excesivo. En China, no es que Apple no sea un competidor importante en su segmento principal, el smartphone: es que está a punto de dejar de estar incluida entre las cinco primeras, con compañías chinas por encima como Huawei, Oppo, Vivo o Xiaomi que, además, ya conquistan los mercados internacionales. Y en tecnologías como 5G ocurre exactamente lo mismo.

El liderazgo chino comienza por un férreo control de una educación orientada al futuro, sigue con fuertes inversiones en desarrollo y en investigación, y continúa con ídolos locales con conocimiento del mercado como Andrew Ng o Kai-Fu Lee. El país ya se plantea superar a los Estados Unidos como líder en el desarrollo de inteligencia artificial en un futuro cercano, cuenta con los mejores laboratorios en automatización de la producción, está entrando con éxito en las aplicaciones más punteras del machine learning como los vehículos autónomos, y tiene compañías extraordinariamente rentables y con pulmón financiero para sostener su crecimiento. Cualquier compañía que quiera trabajar en un entorno en el que la regulación se adapte al desarrollo de tecnologías con impacto en el futuro en lugar de plantearse mil impedimentos y resistencias, se encontrará en su salsa en China. Una actitud diferente hacia el futuro, que está empezando a dar sus frutos, con fortísimas posiciones en mercados emergentes como África o América Latina, y en la que todo se pone al servicio de los planes del estado para esa dominación mundial.

¿Positivo? ¿Negativo? Da igual. China ha planteado su modelo, con elementos que resultan implanteables en el mundo occidental, y ha convertido elementos como la ausencia de una democracia o la importancia de los derechos humanos en una ventaja inalcanzable. Te gustará o no, pero China va a ser el próximo líder económico mundial, con todo lo que ello conlleva. Ve preparándote.

 

 

 

This post is also available in English in my Medium page, “China is the next world leader” 

 

Powered by WPeMatico

Visualizando el avance del machine learning

Bonnier, G. et G. de Layens, "Flore complète portative de la France, de la Suisse et de la Belgique"En la foto, el Bonnier. Para la mayoría, simplemente un libro viejo. Pero para miles de estudiantes de Biológicas de media Europa, la tortura que simbolizaba el examen de Botánica (en el plan que yo estudié, la asignatura era Fanerogamia, separada de la Criptogamia, que se estudiaba en el año anterior) en el que tenías que identificar, utilizando las claves dicotómicas del Bonnier, un número determinado de especies vegetales, entre las que siempre había algunas gramíneas, con taxonomías particularmente enrevesadas y basadas en atributos mínimamente discernibles, para los que, en ocasiones, era preciso utilizar la lupa binocular. Una tarea ardua, pesada y que para llevar a cabo con ciertas garantías, era preciso acumular una cierta experiencia. Por lo que he podido encontrar, la determinación botánica sigue haciéndose del mismo modo, se sigue utilizando el Bonnier, aunque la edición es más moderna, e incluso sigue formando parte de los temarios de algunas oposiciones a profesorado.

En mi época, a mediados de los ’80, el Bonnier que utilizábamos era exactamente ese de la ilustración (sí, ya sé que parezco el abuelo Cebolleta, pero os prometo que en su momento ya tenía aspecto de libro viejísimo, aunque la edición era de 1972), estaba encuadernado en rústica y con un papel de malísima calidad, no estaba traducido al castellano, y a mí, que en aquel momento ya llevaba algunos años interesado por la tecnología y las bases de datos, me obsesionaba la idea de informatizarlo. Incluso llegué a preparar una estructura de una base de datos y una interfaz sencilla para ello con las herramientas que utilizaba entonces, dBASE y Clipper, todo sobre MS-DOS. De haber seguido con el tema, cosa que no hice al ver el ingente trabajo que habría supuesto digitalizar todas aquellas fichas y atributos de varios miles de especies de plantas vasculares, habría conseguido simplemente una cierta comodidad: en lugar de movernos por las páginas del libro, habríamos podido seleccionar las opciones en una pantalla… visto así, no parecía realmente un gran avance.

Ahora, más de treinta años después, me encuentro a través de Boing Boing un artículo de Nature, Artificial intelligence identifies plant species for science, en el que dan cuenta del desarrollo de un algoritmo de machine learning que va bastante más allá: tras entrenarlo con unas 260,000 imágenes digitalizadas de más de mil especies de plantas en herbarios de todo el mundo – se calcula que hay unos tres mil herbarios de cierta entidad en el mundo, con un total aproximado de unas 350 millones de muestras, de las que tan solo una pequeña parte están digitalizadas – el algoritmo es capaz de determinar la planta que se le está mostrando con unas tasas de acierto aproximadas del 80% (en un 90% de ocasiones, la especie estaba entre las cinco primeras elecciones del algoritmo). Esas tasas de acierto superan las habituales en botánicos expertos en taxonomía (en mi época, para aprobar necesitábamos identificar correctamente tres plantas de un total de cinco, y éramos simples estudiantes de tercer año). 

Cuando ves a un algoritmo capaz de llevar a cabo una tarea cuya dificultad eres capaz de valorar adecuadamente en función de tu experiencia, es cuando de verdad te das cuenta de lo que puede llegar a suponer el machine learning. En su momento, mi intento rudimentario de digitalización simplemente solucionaba un factor de comodidad, reducía una parte de la fricción implicada en la determinación. Ahora, basta con mostrar al algoritmo la imagen digitalizada de la planta, y directamente contesta con su género y especie, con un 80% de acierto.

¿Qué implicaciones tendrá algo así para el desarrollo de la Botánica? En pocos años, teniendo en cuenta el rendimiento del algoritmo y las necesarias correcciones progresivas, ya no existirán investigadores capaces de determinar la especie de una planta sin la ayuda del correspondiente algoritmo: los pocos que puedan hacerlo serán jubilados que aún guarden el Bonnier en su estantería, y recuerden cómo utilizar con un mínimo de soltura sus claves dicotómicas. Y sin embargo, esto no significará una pérdida del valor del profesional como tal, porque solo con los conocimientos de esos profesionales se habría podido llegar a adiestrar a ese algoritmo, y porque el papel de esos profesionales estará ya situado mucho más allá, en un escenario en el que ya no será necesario invertir tiempo ni esfuerzo en la determinación de una planta, porque eso se hará ya de manera automatizada. Será preciso modificar la forma de enseñar la disciplina, incluir otro tipo de ejercicios, otros materiales y otras disciplinas, ampliando así las fronteras del conocimiento. ¿Será la idea de perder la habilidad de determinar plantas a mano una gran pérdida como tal para la disciplina? La respuesta es simplemente… no. Del mismo modo que hoy prácticamente nadie sería capaz de escribir en cuneiforme sobre una tabla de arcilla.

¿Algo que ver con la idea de robots “inteligentes”? No, un algoritmo que clasifica especies vegetales lleva a cabo una tarea que hasta entonces, solo un humano podía hacer, pero está muy lejos de la inteligencia: simplemente es capaz de llevar a cabo una tarea muy definida en función de una serie de atributos de una muestra. Sácalo de ese entorno, y necesitará muchísimos ajustes para poder aplicarlo a otra tarea. La inteligencia es otra cosa. ¿Algo que ver con la idea de robots que  sustituyen a expertos en Botánica? En absoluto, y de hecho, la idea parece, vista así, de un simplismo que asusta. Hablamos de otras cosas: de aplicar la inteligencia humana a tareas de más entidad, de liberar recursos que no estaban siendo optimizados… de más progreso y más avance en la disciplina. ¿Podríamos imaginar de alguna manera a profesionales de la disciplina negándose a colaborar con el entrenamiento del algoritmo por miedo a ser eventualmente sustituidos? La sola idea resulta absurda, prácticamente ofensiva.

¿Cuántas de las cosas que hoy consideramos exclusivamente humanas acabarán haciendo algoritmos? ¿Cuántas cosas más podremos hacer cuando sea así?

 

Powered by WPeMatico

La compleja relación entre machine learning y seguros de salud

IMAGE: Rangizzz - 123RFLa discusión entre demócratas y republicanos al hilo de los sucesivos intentos de anulación de Obamacare en los Estados Unidos han puesto de actualidad la discusión sobre el futuro del cuidado de la salud. En un país como los Estados Unidos, que históricamente ha carecido de un sistema universal de cuidado de la salud, la Patient Protection and Affordable Care Act, conocida como Obamacare, supuso un impedimento para las posibilidades de las aseguradoras de salud de discriminar a los pacientes en función de sus condiciones preexistentes, de introducir techos de gasto anuales o totales, de expulsar o denegar la renovación de la póliza a personas que contraían determinadas enfermedades, o de incrementar de manera abusiva las franquicias, entre otras posibilidades.

Con el avance de las técnicas asociadas al machine learning, las posibilidades de las aseguradoras de salud de desarrollar sistemas algorítmicos capaces de predecir el coste asociado con el cuidado de la salud de un paciente específico se incrementan de manera notable. Si el uso de este tipo de sistemas no se pone bajo un nivel adecuado de control que impida el abuso, las compañías privadas podrían utilizar de este tipo de sistemas para maximizar sus beneficios a costa de la expulsión o la limitación del gasto en pacientes con mayores probabilidades de incurrir en tratamientos de coste elevado.

Por otro lado, todo apunta a que el futuro de la salud se basa, fundamentalmente, en la gestión de modelos preventivos, apoyados en la entrada de nuevos competidores como Apple o Amazon, la disponibilidad progresiva de nuevos dispositivos y pruebas diagnósticas, el desarrollo del diagnóstico genético a nuevos niveles y el sinfín de wearables y dispositivos afines inicialmente dedicados al fitness o al bienestar, pero con cada vez mayor interés en el mercado de la salud preventiva.

Indudablemente, nos dirigimos hacia un futuro en el que no recurriremos al sistema de salud únicamente cuando notemos los síntomas de una enfermedad, sino en el que un conjunto de dispositivos y prácticas nos permitirán monitorizarla de manera constante. En ese tipo de entorno, garantizar que la compañía encargada de velar por mi salud no utiliza mis datos para denegarme la póliza en función de mi probabilidad de contraer enfermedades que originen un nivel de gasto elevado se convierte en fundamental: no hacer nada equivale a sostener un sistema que se enriquece a partir de una cartera de clientes sanos, mientras expulsa a los más necesitados de cuidados con el fin de maximizar sus beneficios.

¿Cómo desarrollar mecanismos de control sobre las aseguradoras que garanticen un comportamiento ético, al tiempo que permitimos que restrinjan, por ejemplo, comportamientos voluntarios del paciente que sean susceptibles de generar un gasto más elevado? ¿Cómo tratar ya no simplemente a un paciente que fuma, sino a uno que de manera voluntaria se niega a monitorizar determinados aspectos de su salud o a someterse a determinadas pruebas rutinarias, lo que podría conllevar que el tratamiento de una eventual afección resultase mucho más complejo al ser diagnosticado en una fase más avanzada? El diseño de un sistema de control de las aseguradoras que permita, por otro lado, ejercer también un cierto nivel de incentivo o desincentivo de determinados comportamientos en los pacientes supone un reto importante, que por otro lado, hace referencia ya a un entorno que está ya prácticamente entre nosotros: con los datos que una aseguradora de salud puede obtener sobre un usuario simplemente a través del uso de los servicios médicos a lo largo del tiempo, pueden llevarse a cabo ajustes del importe de la póliza destinados a expulsar de facto a ese paciente en función de una previsión de siniestralidad, y todo ello en un entorno en el que los importes de las pólizas suelen ser completamente arbitrarias y carentes de mecanismos de control o de transparencia. Si una compañía aseguradora puede, básicamente, poner a mi póliza el coste que buenamente quiera sin prácticamente control alguno, ¿cómo evitar el abuso y los comportamientos no éticos ante algoritmos cada vez más potentes, mejor entrenados y capaces de predecir el nivel de gasto en el que puede incurrir un paciente? ¿Cómo evitar el abuso en un entorno en el que, por definición, una de las partes va a tener cada vez más y mejor información, tanto agregada como individualizada, sobre la otra?

 

 

 

This post is also available in English in my Medium page, “The complex relationship between machine learning and health insurance” 

 

Powered by WPeMatico

Los temibles peligros de la inteligencia artificial

IMAGE: Yauhen Korabau - 123RFMi columna en El Español de esta semana se titula “Inteligencia artificial y miedos irracionales” (pdf), y es un comentario al hilo de las declaraciones de Elon Musk, sin duda una de las personas más influyentes, respetadas y seguidas del actual entorno tecnológico, en las que reclama “regulación para la amenaza existencial que supone la inteligencia artificial, antes de que sea demasiado tarde“.

Que una petición de este tipo venga nada menos que de la persona que convierte en realidad retos tecnológicos tan complejos como el vehículo eléctrico, la generación de energía sostenible o la exploración espacial es algo que resulta, en principio, inquietante. Sin duda, Elon Musk no es un indocumentado que opine desde la barra de un bar. Que su preocupación se una, además, a las de personas como el fi?sico teo?rico Stephen Hawking o el fundador de Microsoft, Bill Gates, podría desencadenar toda una epidemia de miedos y prevenciones. Sin embargo, el hecho de que ninguno de ellos tenga experiencia concreta y directa en la investigación o el desarrollo de este tipo de tecnología es algo que debe más bien llevarnos a considerarlo más bien como un caso de libro del llamado argumento o falacia de autoridad: el hecho de que sean personas indudablemente destacadas en otros ámbitos de la ciencia o la industria no convierte necesariamente sus preocupaciones en elementos que no puedan ser discutidos o puestos en duda.

En múltiples ocasiones he hablado de las enormes posibilidades del machine learning, la parte que considero en este momento más real y prometedora de eso que se ha dado en llamar inteligencia artificial y que no deja de ser un conjunto laxo de tecnologías que algunos piensan que terminarán llevando a que una máquina piense como una persona. Por el momento, las máquinas son capaces de muchas cosas: el hecho de que sean capaces de aprender a partir de un conjunto de datos dentro de un escenario sujeto a una serie de restricciones y reglas claras e inmutables, por ejemplo, es algo que lleva a cientos de compañías de todo el mundo a pagar por herramientas que permiten tal posibilidad, y que hacen que puedan optimizar procesos y convertirlos en ahorros o en ganancias de eficiencia. Las máquinas son capaces de reconocer imágenes, de participar en conversaciones, y por supuesto, como es bien sabido por su uso como argumento publicitario, son capaces de ganar a los humanos en cosas como el ajedrez, el Jeopardy, el Go o el póker. Sin embargo, en todos esos casos seguimos hablando de lo mismo: de la dedicación de la máquina a una tarea que se intenta limitar de todas las maneras posibles a un escenario completamente cognoscible, a un conjunto de reglas fijas y un contexto estable en el que, además, sea posible acumular y analizar una gran cantidad de datos. Extrapolar estos casos para imaginar una inteligencia “completa”, un robot capaz de tratar de manera inteligente una situación general, no limitada ni restringida por una serie de reglas fijas, es algo tentador, pero no real. Pasar de ver algoritmos capaces de construir procesos de aprendizaje en tareas específicas a imaginarse a Skynet, esa red de ordenadores de Terminator convencida de que debe acabar con la raza humana es algo indudablemente fácil, pero para considerarlo una realidad es preciso pasar por un sinnúmero de saltos conceptuales que están aún muy, pero que muy lejos, si es que en algún momento llegan a tener algún viso de realidad.

Reclamar regulación sobre una tecnología o conjunto de tecnologías antes de que se desarrollen es un problema. La regulación parte de una base muy problemática, y es que muy pocas veces se desarrolla de la manera adecuada, y tiende a basarse en la restricción de posibilidades. Eso la convierte, por un lado, en algo por lo general imposible de llevar a ejecución en un mundo en el que esa regulación tiene en prácticamente todos los casos un ámbito estrictamente territorial – los intentos de regulación a nivel global son pocos y, por lo general, con desigual nivel de cumplimiento – y, por otro, en una manera de identificar los elementos que permitirían, en caso de obtenerse, generar una supuesta ventaja. Regular – o mejor dicho, restringir – el uso de transgénicos en Europa, por ejemplo, o de tecnologías de manipulación genética en otros países es algo que ya está siendo activamente utilizado en otros países para obtener ventajas tangibles en términos de productividad y de avance científico. Plantear que sistemas regulatorios que resultan tan malos e ineficientes se apliquen a un conjunto de tecnologías con tanto potencial, y generar una especie de histeria colectiva en torno a la posibilidad de robots más inteligentes que las personas desplazándose por las calles y dedicándose a matar todo lo que se mueve, como si algo así fuese a llegar pasado mañana, me parece inadecuado y peligroso. Y cuantas más personas conozco trabajando directamente en el ámbito del machine learning, de la IA o de la robótica, más me convenzo de que es así. Por muchas películas que veamos, Skynet no está ni se le espera.

Esperemos que esas peticiones de regulación no lleguen a ningún político temeroso e inspirado. Y mientras tanto, sigamos trabajando.

 

Powered by WPeMatico

Google, la información… y el tiempo perdido

Google what? Google lanza una actualización prácticamente sin nombre de una actualización igualmente anunciada sin nombre en diciembre del pasado año, confirmando que es, posiblemente, una de las empresa que peor entiende la comunicación del mundo, posiblemente la más torpe de su tamaño e importancia a la hora de comunicar al mundo lo que hace.

El nuevo desarrollo está basado en un feed, en una serie de contenidos que acompañan a la caja de búsqueda y que se actualizan constantemente en función de los intereses del usuario y la coyuntura en la que se encuentra, al estilo de lo que conocían los que utilizaban Google Now. Pero ahora, lo que pretende Google es que pasemos a utilizar su página o su app para informarnos de lo que nos interesa, llenar ese enorme espacio blanco característico con aquellas noticias o temas que sus algoritmos creen que queremos ver.

El problema de Google es claro: la búsqueda nos proporciona información cuando, en efecto, queremos activamente buscar algo. Pero cuando no es así, cuando lo único que queremos es enterarnos de lo que pasa en el mundo, Google se había convertido en irrelevante con la imperfecta excepción de Google News (que nos informaba de las noticias de los medios, no necesariamente de cualquier otro contenido no mediático en el que pudiésemos tener interés). Desde hace mucho tiempo, cuando queremos informarnos de según qué temas, acudimos a sitios como Twitter, Facebook, LinkedIn, Pinterest, Flipboard y muchos otros, pero decididamente no a Google. Google es para hacer una búsqueda, no para informarte de los temas que te interesan.

Ahora, Google pretende aprovechar toda la información que obtiene de nosotros para que sus algoritmos entiendan en qué cosas estamos interesados, y construyan con ello un feed en permanente cambio, un suministro permanente de información relevante sobre lo que aparentemente queremos saber. Para ello, necesita diferenciar entre lo que buscamos de manera coyuntural, para obtener un resultado rápido posiblemente importante en el momento pero no necesariamente representativo de nuestros intereses, y lo que sí nos interesa de verdad, manteniendo las primeras como simples búsquedas, pero permitiéndonos que pasemos a seguir las segundas, con un botón de Follow en los resultados que permita ajustar el feed que veremos al entrar en Google con los resultados relevantes en ese tema.

La idea, como tal, no es mala. Algunas cosas que Google ha hecho con Google Now utilizando la información de nuestros correos, por ejemplo, son casi mágicas, y decididamente útiles. Sin duda, la iniciativa refleja la obsesión de Google por apartarse de un terreno, lo social, que jamás ha logrado entender y en el que ha cosechado posiblemente sus mayores fracasos como compañía: la relevancia de nuestro feed, de los temas que queremos seguir y que aparecerán ante nuestros ojos, la marcamos nosotros, no nuestra red, ni nuestros amigos, ni la agenda mediática. Nuestro feed es nuestro, no de nuestros amigos o conocidos, una especie de anti-Facebook o de rechazo a lo social: dame lo que me interesa a mí, no me des más fotos de los bebés de mis amigos, por muy monos que sean. Habrá que ver si eso funciona adecuadamente, o si se convierte en una manera de que nos perdamos aquellas noticias que posiblemente en principio no estuviesen entre nuestros intereses pero sean verdaderamente relevantes, y por tanto pasen a interesarnos. Seguramente no marcaría a Corea del Norte como uno de mis intereses, pero si Kim Jong Un lanza un misil nuclear, me temo que, quiera o no, pasa a interesarme, y seguramente bastante. Con seguridad no marcaría determinadas cosas como un interés mío, pero si se convierte súbitamente en un interés de todos mis amigos, seguramente querré saberlo, aunque solo sea para tener tema de conversación con ellos y que no parezca que vivo aislado en una cueva.

La idea de Google parece ser evitar la construcción de esa mítica burbuja definida por Eli Pariser en su libro The filter bubble que, supuestamente, dependía de las acciones de nuestro entorno, de nuestros amigos, de nuestros Likes. De alguna manera, Google parece creer que eliminando los amigos, los Likes, la elección de fuentes concretas y toda traza de mecanismos sociales, podremos eliminar esa burbuja. La gran realidad, mucho me temo, es que esa burbuja es algo que construimos nosotros mismos, que ahora pasaremos simplemente a vivir en burbujas construidas algorítmicamente, y que lo social, al menos, nos daba cierta posibilidad, a los que tenían una mentalidad suficientemente abierta, de que entrasen otros elementos en la burbuja que no habrían seleccionado como intereses ellos mismos. Sinceramente, entiendo el interés de Google en abandonar los desarrollos sociales viendo lo espantosamente mal que lo han hecho en ellos tradicionalmente, pero tengo serias dudas de que sustituir los mecanismos sociales por otros algorítmicos sea capaz de eliminar ninguna burbuja.

Por otro lado, la idea de seguir activamente temas y marcarlos en una página genera una desagradable sensación de tiempo perdido, de déjà vu, de nostalgia del producto cuyo abandono fue posiblemente uno de los mayores errores de Google: el cierre de Google Reader. Con Reader, Google no solo tenía una imagen clarísima y no filtrada de mis intereses, sino que, además, tenía una base perfecta para que, con mis acciones, educase a sus algoritmos sobre lo que realmente me interesaba y lo que no. Desde la base de Google Reader, la compañía podía haber construido el super-producto capaz de hacer que todos sus clientes se sintiesen bien y activamente informados. A día de hoy, sería el líder en información. Y en su lugar, renunció a entenderlo, lo cerró, y envió a sus usuarios a buscarse la vida a otras compañías, despreciándolos totalmente y sin darles ninguna solución propia. Con ello renunció a toda posible aplicación de lo que en aquel momento, en 2013, ya era una creciente realidad: el machine learning. Si querías aprender de los intereses de tus usuarios y usar esa información para educar a tus algoritmos, Google Reader era el producto perfecto. Viendo lo que Google lanza ahora, a mediados de 2017, podemos ya asegurar sin miedo a equivocarnos que el cierre de Google Reader en 2013 fue un absurdo y estúpido error de primera magnitud, y que el pequeño producto que desapareció en una Spring Cleaning firmada por Urs Hölzle representaba mucho más y tenía mucha más importancia potencial de lo que algún torpe directivo nunca fue capaz de ver. Desde el cierre de Google Reader me informo en Feedly, convertido en hogar para los varios millones de “refugiados” de Reader, y resultará muy difícil sacarme de ahí, y opto por redes sociales para esa parte de la información que no proviene de los temas que activamente sigo, sino de la coyuntura exterior o de lo que leen las personas a las que decido seguir.

El espacio que ahora Google pretende reclamar está ahora ocupado por un montón de aplicaciones, la mayoría con base social, que aspiran a mantener a sus usuarios bien informados. Y es ahora cuando viene Google a decirles que si marcan determinadas búsquedas, será esa página, que identifican con “búsqueda y nada más”, la que les mantendrá informados de lo que les interese. Suerte. No digo que no vaya a funcionar, podría hacerlo porque hay muchos usuarios que se informarán simplemente con lo que les pille más a mano… pero es una espantosa forma de reconocer un error y de demostrar que se han perdido miserablemente más de cuatro años. ¿Mi experiencia por el momento? Aquello que los algoritmos de Google creen que es en lo que estoy interesado coincide más bien poco con mis verdaderos intereses. A lo mejor es que soy un raro.

Ahora, Google quiere que vayas a su página no solo a buscar cosas, sino a informarte en función de lo que sus algoritmos estiman que te interesa. Ya sabes los riesgos de eso: no le tomes mucho cariño, porque como todo servicio de Google, te lo pueden cerrar de un día para otro según les dé por ahí, de manera completamente errática y sin que exista una razón clara. Para los periódicos, una posible fuente de tráfico además de Google News (salvo que vivas en España y no tengas Google News), o una manera de depender más aún de los algoritmos de la compañía, algo que sin duda deberán tener en cuenta. Pero si aún así te gusta y eres capaz de cambiar la percepción de la página de Google para que, además de un buscador, sea una especie de periódico personal que posiblemente llegue a reflejar tus intereses, ya sabes… di adiós al icónico espacio blanco de la página de búsqueda, y ahí lo tienes.

 

Powered by WPeMatico

Medicina: ¿sustituyendo o asistiendo?

IMAGE: Natalia Merzlyakova - 123RFUn artículo de CNN titulado What happens when automation comes for highly paid doctors comenta el reciente crecimiento de la tendencia hacia el desarrollo y utilización de sistemas de diagnóstico de imagen – radiografías, tomografías, resonancias magnéticas, ultrasonidos, etc. tradicionalmente interpretados por un médico, un especialista o un radiólogo – para su interpretación mediante sistemas que procesan el diagnóstico mediante visión computerizada y algoritmos de machine learning, entrenados a partir del extenso archivo recopilado a lo largo de muchos años de práctica.

El uso de herramientas de diagnóstico mediante imagen ha ido creciendo a lo largo del tiempo, y además de ser profusamente utilizado, supone un elemento muy importante del coste: donde antes un médico tenía que procesar manualmente unas pocas imágenes, ahora es perfectamente habitual que en una sola prueba se obtengan cientos o incluso miles de imágenes en finas capas, en procesos que pueden llegar a ser profundamente aburridos y que incrementan la probabilidad de error debido al cansancio o la pérdida de atención.

¿Puede un algoritmo ser capaz de reconocer en una imagen elementos de diagnóstico? Sin duda. ¿Puede, además, llegar a hacerlo mejor que un profesional especialmente entrenado para ello? Todo indica que, a medida que esos algoritmos son entrenados con más y más imágenes y sus posteriores resultados diagnósticos, esa posibilidad se convierte en una realidad, y que muy probablemente estemos ante mecanismos en los que la probabilidad de pasar por alto un indicio con trascendencia diagnóstica en una imagen sea significativamente menor que en el caso de que ese diagnóstico sea llevado a cabo por un humano.

Precisamente sobre este tema estuve hablando en el pasado Netexplo con Pooja Rao, co-fundadora de la startup india Qure.ai, que fue una de las compañías que obtuvieron galardón y la que me pidieron que entrevistase en el escenario. Pooja contaba con la experiencia perfecta para comentar el tema: además de ser médico de formación, había co-fundado una compañía dedicada al diagnóstico de imagen mediante machine learning, y trabajaba precisamente con médicos a los que trataba de convencer para que contribuyesen al entrenamiento de los algoritmos ofrecidos por su compañía, con un argumento claro: la posibilidad de poder obtener mejores diagnósticos, más seguros, más consistentes y con menos posibilidades de pasar por alto elementos clave.

Una imagen de diagnóstico médico es un fichero digitalizable o, cada vez más, directamente digital. Convertir esas secuencias de píxeles en elementos capaces de ser procesados algorítmicamente es algo que cae perfectamente dentro de las posibilidades del machine learning, en un ámbito, el de la imagen, en el que ya se han obtenido numerosos progresos. Que lleguemos a un momento en el que el análisis de una imagen se lleve a cabo directamente tras su obtención, o incluso durante la misma – para permitir un muestreo más exhaustivo de determinadas áreas – o, incluso, a un momento en el que los médicos directamente pierdan la capacidad de utilizar ese método diagnóstico por falta de práctica es algo que, a día de hoy, cabe perfectamente dentro de los escenarios posibles. En este momento, un algoritmo es capaz de procesar e interpretar una resonancia magnética de corazón, por ejemplo, en unos quince segundos, un examen que puede necesitar unos 45 minutos cuando lo lleva a cabo un cardiólogo o radiólogo.

En ese caso, ¿qué papel pasa a tener el médico especialista? Sencillamente, el de encargar la prueba diagnóstica e interpretar el análisis de la misma llevado a cabo no por sí mismo o por un radiólogo, sino por un algoritmo. El propio radiólogo pasaría a ser un interpretador avanzado de esos diagnósticos, un gestor de un instrumento que sigue los indicios marcados por un algoritmo y trata de ofrecerle elementos adicionales de diagnóstico, o tal vez, el que lleva a cabo un segundo análisis manual basado en los indicios encontrados por el algoritmo. ¿Realmente vemos ese proceso como una sustitución, o más bien como una asistencia especializada que mejora las capacidades del facultativo? ¿Perderían los radiólogos su trabajo, o simplemente deberían reciclarse para aprender a aprovechar una herramienta diagnóstica mucho más potente, capaz de ver lo que un ojo clínico bien entrenado anteriormente no veía? ¿Llegaremos a un momento en el que el diagnóstico mediante imagen sea algo que debe necesariamente ser llevado a cabo por un algoritmo, porque mejore sensiblemente el número de ocasiones en las que un indicio se pasa por alto o se dé lugar a un número menor de falsos positivos? ¿Llevará el hecho de que sea un algoritmo el que procesa las imágenes a que se puedan obtener muchas más, dada la mayor facilidad de procesamiento derivada de que que no sea un médico quien deba revisarlas todas una por una, y por tanto, termine redundando en mejores diagnósticos? ¿Alguien podría llegar a ver un proceso así como negativo?

 

 

 

This post is also available in English in my Medium page, “Medicine and machine learning: replacing or assisting?” 

 

Powered by WPeMatico

El hombre algorítmico

IMAGE: Leo Blanchette - 123RFUna noticia en el Technology Review del MIT, Your best teammate might some day be an algorithm, me lleva a pensar en ese balance entre el desarrollo de más y más capacidades en las máquinas que, sin duda, pueden llevar a que muchos trabajos dejen de tener sentido, y la visión particular que siempre he tenido de mi trabajo viéndose cada vez más potenciado por el uso de ese tipo de tecnologías.

Francamente, nunca he tenido demasiado miedo de que un algoritmo me deje sin trabajo. Será porque me dedico a algo que pocos ubican en las quinielas de trabajos a ser rápidamente sustituidos por robots o por la flexibilidad absoluta que la institución para la que trabajo me ofrece a la hora de enfocar mi actividad, pero siempre he pensado que si todo mi entorno se ve revolucionado por la tecnología, seguiré teniendo posibilidad de estudiarlo y explicárselo a alguien a quien le pueda añadir valor.

Así, el enfoque de un desarrollo de herramientas algorítmicas enfocado en la colaboración me lleva a plantearme qué cosas podré hacer cuando algunas de las partes de mi trabajo que menos me gustan y que, posiblemente, menos valor añade, puedan ser llevadas a cabo por algoritmos, cada vez más fáciles de desarrollar y educar gracias a herramientas cada vez más sencillas.

Nuestro trabajo y nuestra vida en general están cada vez más rodeados de herramientas, que aportan una eficiencia cada vez mayor. Sin embargo, fallan aún algunos elementos: el primero de todos ellos es el que afecta a la visión de automatización incompleta de muchas tareas, que no llegan a suponer automatismos exactos, sino que están sujetas a una cierta variabilidad o “toque humano”, y que precisamente por eso, las herramientas aún no aciertan a llevar a cabo con el nivel de rendimiento adecuado. Durante muchos años, las herramientas se han planteado la automatización como una manera de replicar procesos de manera idéntica y predecible, un enfoque que se ha mostrado limitado. La posibilidad de introducir en esos algoritmos pasos que repliquen en algunos puntos el juicio de un humano en función de datos generados anteriormente permitirían establecer procesos de automatización mucho más potentes, planteados en función de diversos parámetros, y con mayor posibilidad de añadir valor. Hace relativamente poco tiempo, separar el spam del correo electrónico era una tarea pesada y manual. Ahora, prácticamente nada escapa al algoritmo, y la carpeta de spam ya prácticamente no merece supervisión manual. Y como eso, mil cosas más.

Muchas de las tareas que llevo a cabo a lo largo del día precisan de atributos que aún son inequívocamente humanos. Pero muchos otros tienen un componente mucho más mecánico y repetitivo, y podrían beneficiarse claramente de un tratamiento algorítmico. Antes de ver cómo los robots roban nuestros trabajos, veremos muchos otros casos de desarrollo de algoritmos que nos permitan niveles de automatización muy superiores que los que conocemos hoy, en tareas que no son completamente repetitivas, pero que llegan a parecérnoslo, y que potenciarán nuestras capacidades al tiempo que liberan tiempo para otras tareas. En muchos casos, cuando los algoritmos y los robots ya puedan hacer nuestro trabajo, nosotros ya estaremos haciendo otros trabajos diferentes, siguiendo un enfoque que, en función de lo ocurrido en épocas anteriores que ya son historia, me parece mucho más adecuado, constructivo y lógico. Cuantos más algoritmos veo, más quiero trabajar con ellos, aplicarlos a mi día a día y sentir que potencian mis capacidades como ser humano.

 

 

 

This post is also available in English in my Medium page, “Man and algorithms” 

 

Powered by WPeMatico

Estúpidos semáforos…

IMAGE: Lasse Kristensen - 123RFLa ciudad india de Bangalore, sometida a un nivel de atascos en su tráfico rodado que ha convertido el desplazarse por ella en un auténtico infierno, ha puesto en marcha Gridlock Hackathon, un concurso para desarrolladores y compañías tecnológicas promovido por el gigante del comercio electrónico indio, Flipkart, y destinado a la búsqueda de soluciones para el tráfico en la ciudad. Aunque el premio es equivalente a tan solo unos 5,500 dólares, la idea ha atraído a concursantes de todo tipo, desde empresas tecnológicas locales que sufren el tráfico como Ola Cabs, hasta gigantes como Microsoft, Google o Amazon.

Entre las propuestas recibidas hay de todo: coches voladores, redes de túneles… pero también hay algunas dedicadas a lo más lógico y obvio: el uso de sistemas basados en algoritmos de machine learning para llevar a cabo una regulación más eficiente de la red de semáforos.

¿Cuanto tiempo pasas, cuando te desplazas por tu ciudad, detenido ante una luz roja de un semáforo? El primer semáforo, dotado con luces de gas e instalado en el exterior del Parlamento londinense, comenzó a funcionar el 9 de diciembre de 1868, con el fin de controlar el tráfico en las vías adyacentes. Su vida fue muy limitada: el 2 de enero de 1869, menos de un mes después de su montaje, explotó a causa de una fuga de gas en el pavimento, y provocó graves quemaduras al policía que lo operaba de manera manual.

Desde esos accidentados comienzos, lo cierto es que la tecnología que hay detrás de los semáforos en la inmensa mayoría de las ciudades ha evolucionado muy poco en prácticamente siglo y medio: las luces ya no son de gas, son eléctricas y van pasando gradualmente de la incandescencia convencional al LED, y ya no las acciona un policía, sino que se encienden y se apagan en intervalos programados. Pero esencialmente, carecen de inteligencia alguna, y como mucho, poseen un par de ciclos, uno diurno y otro nocturno. El uso de “semáforos inteligentes“, en general, se limita a señales como las que evalúan mediante sensores la velocidad de los vehículos que se aproximan y les recomiendan reducirla.

La tecnología actualmente disponible permitiría perfectamente evaluar el volumen de tráfico de una vía, compararla con el de las vías con las que se cruza, y saber si hay peatones esperando pasar. Simplemente dotando de un mínimo de inteligencia a los semáforos y conectándolos entre sí podríamos hacer muchísimo más por el tráfico que con el absurdo sistema que tenemos actualmente, que se limita a encenderse y apagarse en intervalos prefijados y que, como mucho, envía a un agente de movilidad para anular manualmente las órdenes del semáforo cuando la congestión en la intersección o la zona alcanza un nivel determinado. La sensorización de las vías públicas para evaluar los niveles de tráfico no es especialmente complicada ni extremadamente cara, y los algoritmos que evalúan la intensidad circulatoria y toman decisiones con las adecuadas restricciones no parecen muy difíciles de desarrollar. De hecho, hay sistemas, como el empleado por Waze, adquirida por Google en 2013, que calcula la intensidad circulatoria simplemente en función de los datos de localización y velocidad que envían los propios usuarios de la app, y que es capaz con ello de elaborar mapas notablemente precisos y detallados. No hablamos de proyectos faraónicos ni de trufar la ciudad con carísima infraestructura… hablamos de posibilidades que, en el estado actual de la tecnología, pueden tener muchísimo sentido.

Las posibilidades de una tecnología como esa son elevadísimas, y más teniendo en cuenta que nos aproximamos a una época, la del vehículo conectado y autónomo, en la que los propios vehículos estarían dotados de las capacidades de generación de datos mediante sensores y de comunicación para interactuar con la propia red de semáforos de la ciudad utilizando sistemas V2I, Vehicle-to-Infrastructure. Podríamos privilegiar la circulación del transporte colectivo para incentivar su uso, administrar las diferentes rutas en función de su intensidad y, en general, llevar a cabo una regulación del tráfico dotada de mucho más sentido común. Y sin embargo, aquí seguimos, sentados en los asientos de nuestros automóviles, esperando a que el estúpido semáforo vuelva a cambiar siguiendo un período que, en muchos momentos del día, no tiene ningún sentido de cara a optimizar la circulación.

Se nos llena la boca hablando de las smart cities, pero uno de los elementos que más determinan la vida de una ciudad, los semáforos, siguen funcionando con prácticamente la misma tecnología que cuando se inventaron hace siglo y medio. La tecnología está ahí, pero seguimos soportando atascos que podrían, en gran medida, mejorar. ¿Hay alguien al mando de algún ayuntamiento con capacidad para hacer algo que tenga algo de sentido común?

 

 

 

This post is also available in English in my Medium page, “Dumb traffic lights…” 

 

Powered by WPeMatico

Me, myself & AI: en el foro de la OCDE

Me, myself and AI - OECD ForumAyer tuve la oportunidad de participar como discussion leader en la sesión titulada Me, myself & AI encuadrada dentro del Forum de la Organización para la Cooperación y el Desarrollo Económico (OCDE): tres horas de interesantísima discusión en un formato intensamente participativo, en el que tratamos la evolución y el futuro de una escenario definido cada vez más por algoritmos de machine learning aplicados a todo tipo de ámbitos.

Europa Press recogió algunos de mis posicionamientos durante el foro, en una noticia que han titulado “Dans (IE) insta a las empresas a reorganizar su actividad en torno a los datos para ser competitivas” y que hoy aparecen reflejados en diversos medios: la necesidad de orientar la actividad de las compañías a la obtención de datos, con el fin de poder alimentar algoritmos que nos doten de capacidad de gestión eficiente, rápida y diferencial. Estamos aún muy lejos del desarrollo de una inteligencia artificial de propósito general como tal, pero los algoritmos de machine learning van posicionándose cada vez más como soluciones óptimas para un número creciente de tareas, y además, han disminuido enormemente sus barreras de entrada. La aparición de plataformas de Machine Learning as a Service (MLaaS) y los movimientos de las grandes compañías tecnológicas para posicionarse en ese ámbito mediante la adquisición de startups con actividad en ese área están determinando un escenario que cada vez tiene más influencia a la hora de definir la competitividad de las compañías: los algoritmos de machine learning definen qué productos son ofrecidos a qué clientes potenciales, políticas de pricing, prevención del abandono o churn, detección de posible actividad fraudulenta, opciones en la determinación del marketing mix, y cada vez más cosas.

Pero más allá de este tipo de cuestiones, con indudable influencia en la actividad de las compañías a día de hoy, y sin caer en el hype y la desinformación que supone pensar que ya vivimos rodeados de inteligencia artificial, la oportunidad de participar en un foro como el de ayer, con especialistas de diversas compañías, personas que llevan años desarrollando algoritmos en aspectos como procesamiento del lenguaje o visión computerizada, o con políticos que están tomando decisiones que condicionan las posibilidades de actuación de las compañías resulta verdaderamente interesante. Entre las cuestiones que discutimos en el foro estuvieron, entre otras, como estructurar las variables dependientes que un algoritmo debe optimizar (y qué supone optimizarlas), la necesidad de pensar el la articulación de un nuevo sistema operativo en el que se desarrollarán muchas partes significativas de la actividad humana, o la interacción entre algoritmos y personas. En mi intervención, intenté plantear ese tipo de cuestiones como si fueran un lenguaje de programación: cuáles serían las variables a definir y cómo se definen, cómo se estructuran los condicionales, y cómo generamos bucles que ofrezcan un control de la actividad resultante, además de tocar las necesidades de preparación de las personas y las habilidades que vamos a tener que desarrollar de cara a ese entorno, en una entrevista que publicaré en cuanto esté disponible. También surgieron interesantes discusiones en torno a temas éticos, a posibles conflictos entre las decisiones de un algoritmo y las de una persona, al dilema de la caja negra o a los posibles sesgos que se pueden generar y a su posible supervisión.

Este tipo de foros de la OCDE tienen una gran importancia de cara al desarrollo de líneas de pensamiento que influencian el entorno legislativo y las decisiones de actores de muy diversos tipos en empresas, gobiernos y organismos de todo tipo. Agradezco enormemente a la OCDE la oportunidad de participar. En cuanto tenga disponible más materiales sobre la jornada, los iré añadiendo a la entrada.

 

 

This post is also available in English in my Medium page, “Me, myself & AI: in the OECD forum

 

Powered by WPeMatico

Tecnología y perspectiva

Tecnología y perspectiva - Capital (pdf)

Jordi Benítez, de Capital, me pidió una columna con motivo de los doscientos números de la revista, en la que intentase aplicar un poco de perspectiva a la evolución tecnológica que hemos vivido en lo que llevamos de siglo. El resultado se titula precisamente así, “Tecnología y perspectiva” (pdf), y está disponible en el número de este mes.

El encargo me hizo cierta ilusión: Jordi se incorporó a Capital allá por el año 2000, precisamente cuando yo volvía de California tras terminar allí una estancia de cuatro años para obtener mi doctorado, hemos colaborado en bastantes ocasiones, y la columna representaba la oportunidad para revisar diecisiete años trepidantes y dinámicos de historia reciente, de una historia de la que él como periodista y yo como académico nos hemos dedicado a ser cronistas.

¿Qué decides destacar cuando tienes setecientas palabras para resumir diecisiete años en los que no has parado de escribir de manera prácticamente compulsiva? Tras darle unas cuantas vueltas, mi decisión fue tomar como referencias evolutivas tres momentos que considero especialmente significativos: la revolución que supuso la llegada de las puntocom y su posterior crisis, los múltiples exponentes de resistencia al cambio por parte de industrias establecidas, y finalmente, el despertar del machine learning. En esos tres epígrafes están sin duda los elementos que más entradas o artículos me han llevado a escribir a lo largo de estos años.

A continuación, el texto completo de mi columna:

Tecnología y perspectiva

Hacer memoria y retrotraernos a lo que la tecnología significaba hace tiempo no es un ejercicio sencillo: el escenario se mueve a tal velocidad, que hace difícil mantener elementos de referencia: si los tenemos, seguramente es porque estamos obsoletos, y que nos aferramos a esas referencias porque cambiar es algo que, sencillamente, nos da pereza. 

En mi caso, echar la vista atrás hasta el año 2000 es sencillo, porque fue un año importante para mí. Tras cuatro años viviendo en una California efervescente, volvía a España con mi título de doctor bajo el brazo, y me encontraba con que podía, en virtud de mi experiencia en un mercado reconocido como más avanzado y mi preparación como académico, escribir sobre los efectos de la tecnología y su adopción. Aunque nunca pretendí ganarme la vida con ello – la mayoría de mis colaboraciones con medios eran entonces gratuitas – sí me ha permitido mantener un registro escrito fiel de mis ideas, mis preocupaciones, y también mis – por supuesto – obsesiones, en relación con la evolución del entorno tecnológico. Diecisiete años escribiendo dan mucho de sí.  

Entiendo la tecnología como un entorno de un dinamismo brutal, en el que los cambios suceden a una velocidad impresionante. El final de siglo y la entrada del nuevo nos demostró precisamente eso: la crisis de las puntocom fue vista por muchos como una especie de “enmienda a la totalidad”, como si aquello fuese todo “una patraña” y nada tuviese importancia. Aquellos años se caracterizaron por una visión cercana a la de la magia, a la de la sorpresa, al “mira estos chicos tan ingeniosos, lo que han sido capaces de hacer y cuánto dinero han ganado”, como si fuese así, un chasquear de dedos y ya has montado una puntocom.

La realidad era otra. La supuesta magia era en realidad un trabajo intenso, horas de teclado, y la habilidad de convertir ideas en código ejecutable. Con el tiempo, en algunos países han entendido ya la inmensa importancia de la programación de cara al futuro, de entender que vivimos completamente rodeados de objetos programables, y que aprender a programar es tan fundamental como entender Física o Biología: una forma de aprender a vivir. En España, desgraciadamente, seguimos sin tenerlo claro, y las sucesivas reformas educativas se han enfocado… a otros temas. 

La “magia” de entonces dio paso a la inadaptación. Gran parte de lo que escribimos en la primera década del siglo representaba la constatación de que nuevas formas de hacer las cosas desplazaban a las antiguas, y de cómo los afectados trataban de resistirse a ello. Aquellos intentos de resistirse inútilmente al progreso nos mantuvieron entretenidos buena parte de la década: las empresas de contenidos y su insistencia en que los usuarios éramos malvados y perversos, en lugar de tratar de proporcionarnos sus productos en las condiciones que demandábamos. Con el tiempo, hemos entendido que el problema no nunca estuvo en los usuarios ni en la tecnología, sino en la palmaria falta de visión de unas compañías que pretendían que, en un mundo que había cambiado, todo se siguiese haciendo como ellos decían y de ninguna otra forma, algo que el tiempo probó completamente insostenible.

El avance del siglo nos trajo, sobre todo, la evidencia de que Gordon Moore, cofundador de Intel, era un genio, y que la aplicación de su ley nos permitía disfrutar de ordenadores cada vez más potentes y más pequeños. Tan potentes y pequeños que empezamos a ponerlos en todas partes, incluso en sitios insospechados, para dar lugar a la internet de las cosas. Y con todas esas cosas conectadas y generando datos, comenzamos a darnos cuenta de que nuestras capacidades analíticas se sublimaban, y que el aprendizaje y la inteligencia dejaban de ser patrimonio del ser humano: llegamos a la que, para mí, es la revolución más importante de lo que llevamos de siglo: el machine learning y la inteligencia artificial. 

Para mí, esos son los tres elementos que marcan mi perspectiva de este siglo: las puntocom, la resistencia al progreso y el machine learning como clave del futuro. Y en esas seguimos. Han sido diecisiete años trepidantes, rápidos, brutales. Y aún así, no son nada comparados con los maravillosos años que están por venir…

This post is also available in English in my Medium page, “Technology and perspective 

Powered by WPeMatico