Category Archives: artificial intelligence

Auto Added by WPeMatico

China es el próximo líder mundial

IMAGE: Robodread - 123RFEl título del liderazgo económico mundial no es precisamente honorífico. A los Estados Unidos, esa posición le ha brindado durante décadas una ventaja fundamental, y se ha convertido en uno de los factores más importantes a la hora de dar forma al mundo tal y como lo conocemos. Pero a estas alturas, todo aquel que estudie o planifique de cara al futuro debería tener cada vez más claro que esa posición está a punto de cambiar: el próximo liderazgo mundial no va a ser ejercido por los Estados Unidos, sino por otro país que lleva tiempo preparándose para ello: China.

El plan de China para convertirse en líder mundial absoluto tiene mucho sentido, y empieza por entender el factor más importante en esa transición: los datos. Olvida todo planteamiento de la privacidad como un derecho: en un país en el que el estado es el principal proveedor de datos, lo sabe absolutamente todo y lo comparte con sus compañías, cuestiones como autentificarte con tus datos biométricos, disponer de un sistema de rating crediticio universal o desarrollar el famoso Departamento de Precrimen se convierten en posibilidades reales, que no chocan con todos los obstáculos habituales que encontramos lógicos y normales en el garantista mundo occidental.

El país ha conseguido dar forma a un mercado doméstico enorme, con actores completamente diferentes a los del resto del mundo: las principales compañías tecnológicas ya no son únicamente norteamericanas, y se ven ya preparadas para tomar por asalto los mercados mundiales, mientras las empresas líderes de la etapa anterior se ven acosadas por intentos legislativos de reducir un poder considerado excesivo. En China, no es que Apple no sea un competidor importante en su segmento principal, el smartphone: es que está a punto de dejar de estar incluida entre las cinco primeras, con compañías chinas por encima como Huawei, Oppo, Vivo o Xiaomi que, además, ya conquistan los mercados internacionales. Y en tecnologías como 5G ocurre exactamente lo mismo.

El liderazgo chino comienza por un férreo control de una educación orientada al futuro, sigue con fuertes inversiones en desarrollo y en investigación, y continúa con ídolos locales con conocimiento del mercado como Andrew Ng o Kai-Fu Lee. El país ya se plantea superar a los Estados Unidos como líder en el desarrollo de inteligencia artificial en un futuro cercano, cuenta con los mejores laboratorios en automatización de la producción, está entrando con éxito en las aplicaciones más punteras del machine learning como los vehículos autónomos, y tiene compañías extraordinariamente rentables y con pulmón financiero para sostener su crecimiento. Cualquier compañía que quiera trabajar en un entorno en el que la regulación se adapte al desarrollo de tecnologías con impacto en el futuro en lugar de plantearse mil impedimentos y resistencias, se encontrará en su salsa en China. Una actitud diferente hacia el futuro, que está empezando a dar sus frutos, con fortísimas posiciones en mercados emergentes como África o América Latina, y en la que todo se pone al servicio de los planes del estado para esa dominación mundial.

¿Positivo? ¿Negativo? Da igual. China ha planteado su modelo, con elementos que resultan implanteables en el mundo occidental, y ha convertido elementos como la ausencia de una democracia o la importancia de los derechos humanos en una ventaja inalcanzable. Te gustará o no, pero China va a ser el próximo líder económico mundial, con todo lo que ello conlleva. Ve preparándote.

 

 

 

This post is also available in English in my Medium page, “China is the next world leader” 

 

Powered by WPeMatico

Visualizando el avance del machine learning

Bonnier, G. et G. de Layens, "Flore complète portative de la France, de la Suisse et de la Belgique"En la foto, el Bonnier. Para la mayoría, simplemente un libro viejo. Pero para miles de estudiantes de Biológicas de media Europa, la tortura que simbolizaba el examen de Botánica (en el plan que yo estudié, la asignatura era Fanerogamia, separada de la Criptogamia, que se estudiaba en el año anterior) en el que tenías que identificar, utilizando las claves dicotómicas del Bonnier, un número determinado de especies vegetales, entre las que siempre había algunas gramíneas, con taxonomías particularmente enrevesadas y basadas en atributos mínimamente discernibles, para los que, en ocasiones, era preciso utilizar la lupa binocular. Una tarea ardua, pesada y que para llevar a cabo con ciertas garantías, era preciso acumular una cierta experiencia. Por lo que he podido encontrar, la determinación botánica sigue haciéndose del mismo modo, se sigue utilizando el Bonnier, aunque la edición es más moderna, e incluso sigue formando parte de los temarios de algunas oposiciones a profesorado.

En mi época, a mediados de los ’80, el Bonnier que utilizábamos era exactamente ese de la ilustración (sí, ya sé que parezco el abuelo Cebolleta, pero os prometo que en su momento ya tenía aspecto de libro viejísimo, aunque la edición era de 1972), estaba encuadernado en rústica y con un papel de malísima calidad, no estaba traducido al castellano, y a mí, que en aquel momento ya llevaba algunos años interesado por la tecnología y las bases de datos, me obsesionaba la idea de informatizarlo. Incluso llegué a preparar una estructura de una base de datos y una interfaz sencilla para ello con las herramientas que utilizaba entonces, dBASE y Clipper, todo sobre MS-DOS. De haber seguido con el tema, cosa que no hice al ver el ingente trabajo que habría supuesto digitalizar todas aquellas fichas y atributos de varios miles de especies de plantas vasculares, habría conseguido simplemente una cierta comodidad: en lugar de movernos por las páginas del libro, habríamos podido seleccionar las opciones en una pantalla… visto así, no parecía realmente un gran avance.

Ahora, más de treinta años después, me encuentro a través de Boing Boing un artículo de Nature, Artificial intelligence identifies plant species for science, en el que dan cuenta del desarrollo de un algoritmo de machine learning que va bastante más allá: tras entrenarlo con unas 260,000 imágenes digitalizadas de más de mil especies de plantas en herbarios de todo el mundo – se calcula que hay unos tres mil herbarios de cierta entidad en el mundo, con un total aproximado de unas 350 millones de muestras, de las que tan solo una pequeña parte están digitalizadas – el algoritmo es capaz de determinar la planta que se le está mostrando con unas tasas de acierto aproximadas del 80% (en un 90% de ocasiones, la especie estaba entre las cinco primeras elecciones del algoritmo). Esas tasas de acierto superan las habituales en botánicos expertos en taxonomía (en mi época, para aprobar necesitábamos identificar correctamente tres plantas de un total de cinco, y éramos simples estudiantes de tercer año). 

Cuando ves a un algoritmo capaz de llevar a cabo una tarea cuya dificultad eres capaz de valorar adecuadamente en función de tu experiencia, es cuando de verdad te das cuenta de lo que puede llegar a suponer el machine learning. En su momento, mi intento rudimentario de digitalización simplemente solucionaba un factor de comodidad, reducía una parte de la fricción implicada en la determinación. Ahora, basta con mostrar al algoritmo la imagen digitalizada de la planta, y directamente contesta con su género y especie, con un 80% de acierto.

¿Qué implicaciones tendrá algo así para el desarrollo de la Botánica? En pocos años, teniendo en cuenta el rendimiento del algoritmo y las necesarias correcciones progresivas, ya no existirán investigadores capaces de determinar la especie de una planta sin la ayuda del correspondiente algoritmo: los pocos que puedan hacerlo serán jubilados que aún guarden el Bonnier en su estantería, y recuerden cómo utilizar con un mínimo de soltura sus claves dicotómicas. Y sin embargo, esto no significará una pérdida del valor del profesional como tal, porque solo con los conocimientos de esos profesionales se habría podido llegar a adiestrar a ese algoritmo, y porque el papel de esos profesionales estará ya situado mucho más allá, en un escenario en el que ya no será necesario invertir tiempo ni esfuerzo en la determinación de una planta, porque eso se hará ya de manera automatizada. Será preciso modificar la forma de enseñar la disciplina, incluir otro tipo de ejercicios, otros materiales y otras disciplinas, ampliando así las fronteras del conocimiento. ¿Será la idea de perder la habilidad de determinar plantas a mano una gran pérdida como tal para la disciplina? La respuesta es simplemente… no. Del mismo modo que hoy prácticamente nadie sería capaz de escribir en cuneiforme sobre una tabla de arcilla.

¿Algo que ver con la idea de robots “inteligentes”? No, un algoritmo que clasifica especies vegetales lleva a cabo una tarea que hasta entonces, solo un humano podía hacer, pero está muy lejos de la inteligencia: simplemente es capaz de llevar a cabo una tarea muy definida en función de una serie de atributos de una muestra. Sácalo de ese entorno, y necesitará muchísimos ajustes para poder aplicarlo a otra tarea. La inteligencia es otra cosa. ¿Algo que ver con la idea de robots que  sustituyen a expertos en Botánica? En absoluto, y de hecho, la idea parece, vista así, de un simplismo que asusta. Hablamos de otras cosas: de aplicar la inteligencia humana a tareas de más entidad, de liberar recursos que no estaban siendo optimizados… de más progreso y más avance en la disciplina. ¿Podríamos imaginar de alguna manera a profesionales de la disciplina negándose a colaborar con el entrenamiento del algoritmo por miedo a ser eventualmente sustituidos? La sola idea resulta absurda, prácticamente ofensiva.

¿Cuántas de las cosas que hoy consideramos exclusivamente humanas acabarán haciendo algoritmos? ¿Cuántas cosas más podremos hacer cuando sea así?

 

Powered by WPeMatico

Rápido, desconéctalo antes de que sea demasiado tarde!!

Terminator Mi columna en El Español de esta semana se titula “Alimentando la paranoia” (pdf), y habla de los tratamientos informativos irresponsables y de ese supuesto robot que provocó que los ingenieros de Facebook, presas del pánico, lo desconectasen a toda velocidad porque, perverso él, había desarrollado todo un lenguaje propio que los humanos no podían entender y estaba, sin ninguna duda, preparando la llegada de Terminator para aniquilarnos a todos…

Lo único que merece la pena de esta historia es el evidente mensaje de que cada vez que escuchéis noticias sobre inteligencia artificial con tono tremendista, distópico o fatalista, debéis inmediatamente poner en marcha todas las alarmas correspondientes. Tras las primeras noticias al respecto, que lo tienen todo para ser clasificadas como antologías del disparate, en medios como Tech Times o BGR, resulta impagable leer la reacción de Dhruv Batra, de Facebook AI Research, en su Facebook cuando llegó de una conferencia y se encontró semejante pastel. Menos mal que tenemos Snopes

El caso es un ejemplo clarísimo de paranoia, clickbait e irresponsabilidad informativa. No, los bots de Facebook no estaban fuera de control, ni se habían vuelto demasiado inteligentes, ni nadie acudió corriendo para darle a ningún botón rojo ni tirar de ningún cable antes de que llegase el apocalisis de la humanidad. Nada de eso es cierto. Por triste que resulte a efectos informativos, nadie entró en pánico, ni se escuchó ningún grito desde el interior de la máquina cuando fue desenchufada… porque ni siquiera hubo nada que desenchufar. Traduciendo al propio Dhruv,

“En pocas palabras, los agentes, en entornos diseñados para resolver una tarea, suelen encontrar formas no intuitivas de maximizar la recompensa. Analizar la función de recompensa y cambiar los parámetros de un experimento NO es lo mismo que ‘desconectar’ o ‘cerrar AI’. Si ese fuera el caso, cada investigador de IA ha estado ‘cerrando AI’ cada vez que terminan un trabajo en una máquina.”

Se analizó el experimento, y se cambiaron sus parámetros, porque el que la negociación utilizase otros medios de comunicación diferentes al lenguaje humano no aportaba nada. Tampoco es cierto que las máquinas inventasen un lenguaje incomprensible para los humanos: simplemente, utilizaban repeticiones para indicar el número de unidades en una negociación. Big deal.

El tremendismo y el sensacionalismo son siempre una tentación para los medios. Cuando sazonamos esas tentaciones con desconocimiento, se convierten en una combinación peligrosísima. Procura estar atento, o terminarás mirando con ojos temerosos a tu Thermomix y pensando que planea asesinarte…

 

Powered by WPeMatico

Los temibles peligros de la inteligencia artificial

IMAGE: Yauhen Korabau - 123RFMi columna en El Español de esta semana se titula “Inteligencia artificial y miedos irracionales” (pdf), y es un comentario al hilo de las declaraciones de Elon Musk, sin duda una de las personas más influyentes, respetadas y seguidas del actual entorno tecnológico, en las que reclama “regulación para la amenaza existencial que supone la inteligencia artificial, antes de que sea demasiado tarde“.

Que una petición de este tipo venga nada menos que de la persona que convierte en realidad retos tecnológicos tan complejos como el vehículo eléctrico, la generación de energía sostenible o la exploración espacial es algo que resulta, en principio, inquietante. Sin duda, Elon Musk no es un indocumentado que opine desde la barra de un bar. Que su preocupación se una, además, a las de personas como el fi?sico teo?rico Stephen Hawking o el fundador de Microsoft, Bill Gates, podría desencadenar toda una epidemia de miedos y prevenciones. Sin embargo, el hecho de que ninguno de ellos tenga experiencia concreta y directa en la investigación o el desarrollo de este tipo de tecnología es algo que debe más bien llevarnos a considerarlo más bien como un caso de libro del llamado argumento o falacia de autoridad: el hecho de que sean personas indudablemente destacadas en otros ámbitos de la ciencia o la industria no convierte necesariamente sus preocupaciones en elementos que no puedan ser discutidos o puestos en duda.

En múltiples ocasiones he hablado de las enormes posibilidades del machine learning, la parte que considero en este momento más real y prometedora de eso que se ha dado en llamar inteligencia artificial y que no deja de ser un conjunto laxo de tecnologías que algunos piensan que terminarán llevando a que una máquina piense como una persona. Por el momento, las máquinas son capaces de muchas cosas: el hecho de que sean capaces de aprender a partir de un conjunto de datos dentro de un escenario sujeto a una serie de restricciones y reglas claras e inmutables, por ejemplo, es algo que lleva a cientos de compañías de todo el mundo a pagar por herramientas que permiten tal posibilidad, y que hacen que puedan optimizar procesos y convertirlos en ahorros o en ganancias de eficiencia. Las máquinas son capaces de reconocer imágenes, de participar en conversaciones, y por supuesto, como es bien sabido por su uso como argumento publicitario, son capaces de ganar a los humanos en cosas como el ajedrez, el Jeopardy, el Go o el póker. Sin embargo, en todos esos casos seguimos hablando de lo mismo: de la dedicación de la máquina a una tarea que se intenta limitar de todas las maneras posibles a un escenario completamente cognoscible, a un conjunto de reglas fijas y un contexto estable en el que, además, sea posible acumular y analizar una gran cantidad de datos. Extrapolar estos casos para imaginar una inteligencia “completa”, un robot capaz de tratar de manera inteligente una situación general, no limitada ni restringida por una serie de reglas fijas, es algo tentador, pero no real. Pasar de ver algoritmos capaces de construir procesos de aprendizaje en tareas específicas a imaginarse a Skynet, esa red de ordenadores de Terminator convencida de que debe acabar con la raza humana es algo indudablemente fácil, pero para considerarlo una realidad es preciso pasar por un sinnúmero de saltos conceptuales que están aún muy, pero que muy lejos, si es que en algún momento llegan a tener algún viso de realidad.

Reclamar regulación sobre una tecnología o conjunto de tecnologías antes de que se desarrollen es un problema. La regulación parte de una base muy problemática, y es que muy pocas veces se desarrolla de la manera adecuada, y tiende a basarse en la restricción de posibilidades. Eso la convierte, por un lado, en algo por lo general imposible de llevar a ejecución en un mundo en el que esa regulación tiene en prácticamente todos los casos un ámbito estrictamente territorial – los intentos de regulación a nivel global son pocos y, por lo general, con desigual nivel de cumplimiento – y, por otro, en una manera de identificar los elementos que permitirían, en caso de obtenerse, generar una supuesta ventaja. Regular – o mejor dicho, restringir – el uso de transgénicos en Europa, por ejemplo, o de tecnologías de manipulación genética en otros países es algo que ya está siendo activamente utilizado en otros países para obtener ventajas tangibles en términos de productividad y de avance científico. Plantear que sistemas regulatorios que resultan tan malos e ineficientes se apliquen a un conjunto de tecnologías con tanto potencial, y generar una especie de histeria colectiva en torno a la posibilidad de robots más inteligentes que las personas desplazándose por las calles y dedicándose a matar todo lo que se mueve, como si algo así fuese a llegar pasado mañana, me parece inadecuado y peligroso. Y cuantas más personas conozco trabajando directamente en el ámbito del machine learning, de la IA o de la robótica, más me convenzo de que es así. Por muchas películas que veamos, Skynet no está ni se le espera.

Esperemos que esas peticiones de regulación no lleguen a ningún político temeroso e inspirado. Y mientras tanto, sigamos trabajando.

 

Powered by WPeMatico

Medicina: ¿sustituyendo o asistiendo?

IMAGE: Natalia Merzlyakova - 123RFUn artículo de CNN titulado What happens when automation comes for highly paid doctors comenta el reciente crecimiento de la tendencia hacia el desarrollo y utilización de sistemas de diagnóstico de imagen – radiografías, tomografías, resonancias magnéticas, ultrasonidos, etc. tradicionalmente interpretados por un médico, un especialista o un radiólogo – para su interpretación mediante sistemas que procesan el diagnóstico mediante visión computerizada y algoritmos de machine learning, entrenados a partir del extenso archivo recopilado a lo largo de muchos años de práctica.

El uso de herramientas de diagnóstico mediante imagen ha ido creciendo a lo largo del tiempo, y además de ser profusamente utilizado, supone un elemento muy importante del coste: donde antes un médico tenía que procesar manualmente unas pocas imágenes, ahora es perfectamente habitual que en una sola prueba se obtengan cientos o incluso miles de imágenes en finas capas, en procesos que pueden llegar a ser profundamente aburridos y que incrementan la probabilidad de error debido al cansancio o la pérdida de atención.

¿Puede un algoritmo ser capaz de reconocer en una imagen elementos de diagnóstico? Sin duda. ¿Puede, además, llegar a hacerlo mejor que un profesional especialmente entrenado para ello? Todo indica que, a medida que esos algoritmos son entrenados con más y más imágenes y sus posteriores resultados diagnósticos, esa posibilidad se convierte en una realidad, y que muy probablemente estemos ante mecanismos en los que la probabilidad de pasar por alto un indicio con trascendencia diagnóstica en una imagen sea significativamente menor que en el caso de que ese diagnóstico sea llevado a cabo por un humano.

Precisamente sobre este tema estuve hablando en el pasado Netexplo con Pooja Rao, co-fundadora de la startup india Qure.ai, que fue una de las compañías que obtuvieron galardón y la que me pidieron que entrevistase en el escenario. Pooja contaba con la experiencia perfecta para comentar el tema: además de ser médico de formación, había co-fundado una compañía dedicada al diagnóstico de imagen mediante machine learning, y trabajaba precisamente con médicos a los que trataba de convencer para que contribuyesen al entrenamiento de los algoritmos ofrecidos por su compañía, con un argumento claro: la posibilidad de poder obtener mejores diagnósticos, más seguros, más consistentes y con menos posibilidades de pasar por alto elementos clave.

Una imagen de diagnóstico médico es un fichero digitalizable o, cada vez más, directamente digital. Convertir esas secuencias de píxeles en elementos capaces de ser procesados algorítmicamente es algo que cae perfectamente dentro de las posibilidades del machine learning, en un ámbito, el de la imagen, en el que ya se han obtenido numerosos progresos. Que lleguemos a un momento en el que el análisis de una imagen se lleve a cabo directamente tras su obtención, o incluso durante la misma – para permitir un muestreo más exhaustivo de determinadas áreas – o, incluso, a un momento en el que los médicos directamente pierdan la capacidad de utilizar ese método diagnóstico por falta de práctica es algo que, a día de hoy, cabe perfectamente dentro de los escenarios posibles. En este momento, un algoritmo es capaz de procesar e interpretar una resonancia magnética de corazón, por ejemplo, en unos quince segundos, un examen que puede necesitar unos 45 minutos cuando lo lleva a cabo un cardiólogo o radiólogo.

En ese caso, ¿qué papel pasa a tener el médico especialista? Sencillamente, el de encargar la prueba diagnóstica e interpretar el análisis de la misma llevado a cabo no por sí mismo o por un radiólogo, sino por un algoritmo. El propio radiólogo pasaría a ser un interpretador avanzado de esos diagnósticos, un gestor de un instrumento que sigue los indicios marcados por un algoritmo y trata de ofrecerle elementos adicionales de diagnóstico, o tal vez, el que lleva a cabo un segundo análisis manual basado en los indicios encontrados por el algoritmo. ¿Realmente vemos ese proceso como una sustitución, o más bien como una asistencia especializada que mejora las capacidades del facultativo? ¿Perderían los radiólogos su trabajo, o simplemente deberían reciclarse para aprender a aprovechar una herramienta diagnóstica mucho más potente, capaz de ver lo que un ojo clínico bien entrenado anteriormente no veía? ¿Llegaremos a un momento en el que el diagnóstico mediante imagen sea algo que debe necesariamente ser llevado a cabo por un algoritmo, porque mejore sensiblemente el número de ocasiones en las que un indicio se pasa por alto o se dé lugar a un número menor de falsos positivos? ¿Llevará el hecho de que sea un algoritmo el que procesa las imágenes a que se puedan obtener muchas más, dada la mayor facilidad de procesamiento derivada de que que no sea un médico quien deba revisarlas todas una por una, y por tanto, termine redundando en mejores diagnósticos? ¿Alguien podría llegar a ver un proceso así como negativo?

 

 

 

This post is also available in English in my Medium page, “Medicine and machine learning: replacing or assisting?” 

 

Powered by WPeMatico

Me, myself & AI: en el foro de la OCDE

Me, myself and AI - OECD ForumAyer tuve la oportunidad de participar como discussion leader en la sesión titulada Me, myself & AI encuadrada dentro del Forum de la Organización para la Cooperación y el Desarrollo Económico (OCDE): tres horas de interesantísima discusión en un formato intensamente participativo, en el que tratamos la evolución y el futuro de una escenario definido cada vez más por algoritmos de machine learning aplicados a todo tipo de ámbitos.

Europa Press recogió algunos de mis posicionamientos durante el foro, en una noticia que han titulado “Dans (IE) insta a las empresas a reorganizar su actividad en torno a los datos para ser competitivas” y que hoy aparecen reflejados en diversos medios: la necesidad de orientar la actividad de las compañías a la obtención de datos, con el fin de poder alimentar algoritmos que nos doten de capacidad de gestión eficiente, rápida y diferencial. Estamos aún muy lejos del desarrollo de una inteligencia artificial de propósito general como tal, pero los algoritmos de machine learning van posicionándose cada vez más como soluciones óptimas para un número creciente de tareas, y además, han disminuido enormemente sus barreras de entrada. La aparición de plataformas de Machine Learning as a Service (MLaaS) y los movimientos de las grandes compañías tecnológicas para posicionarse en ese ámbito mediante la adquisición de startups con actividad en ese área están determinando un escenario que cada vez tiene más influencia a la hora de definir la competitividad de las compañías: los algoritmos de machine learning definen qué productos son ofrecidos a qué clientes potenciales, políticas de pricing, prevención del abandono o churn, detección de posible actividad fraudulenta, opciones en la determinación del marketing mix, y cada vez más cosas.

Pero más allá de este tipo de cuestiones, con indudable influencia en la actividad de las compañías a día de hoy, y sin caer en el hype y la desinformación que supone pensar que ya vivimos rodeados de inteligencia artificial, la oportunidad de participar en un foro como el de ayer, con especialistas de diversas compañías, personas que llevan años desarrollando algoritmos en aspectos como procesamiento del lenguaje o visión computerizada, o con políticos que están tomando decisiones que condicionan las posibilidades de actuación de las compañías resulta verdaderamente interesante. Entre las cuestiones que discutimos en el foro estuvieron, entre otras, como estructurar las variables dependientes que un algoritmo debe optimizar (y qué supone optimizarlas), la necesidad de pensar el la articulación de un nuevo sistema operativo en el que se desarrollarán muchas partes significativas de la actividad humana, o la interacción entre algoritmos y personas. En mi intervención, intenté plantear ese tipo de cuestiones como si fueran un lenguaje de programación: cuáles serían las variables a definir y cómo se definen, cómo se estructuran los condicionales, y cómo generamos bucles que ofrezcan un control de la actividad resultante, además de tocar las necesidades de preparación de las personas y las habilidades que vamos a tener que desarrollar de cara a ese entorno, en una entrevista que publicaré en cuanto esté disponible. También surgieron interesantes discusiones en torno a temas éticos, a posibles conflictos entre las decisiones de un algoritmo y las de una persona, al dilema de la caja negra o a los posibles sesgos que se pueden generar y a su posible supervisión.

Este tipo de foros de la OCDE tienen una gran importancia de cara al desarrollo de líneas de pensamiento que influencian el entorno legislativo y las decisiones de actores de muy diversos tipos en empresas, gobiernos y organismos de todo tipo. Agradezco enormemente a la OCDE la oportunidad de participar. En cuanto tenga disponible más materiales sobre la jornada, los iré añadiendo a la entrada.

 

 

This post is also available in English in my Medium page, “Me, myself & AI: in the OECD forum

 

Powered by WPeMatico

Justicia robótica

IMAGE: Kittipong Jirasukhanont - 123RF

Durante las últimas semanas, he estado utilizando un artículo de Wired, titulado Courts are using AI to sentence criminals. That must stop now, para generar discusiones interesantes en algunas de mis clases y conferencias: el uso de algoritmos en procesos judiciales en los Estados Unidos para determinar, por ejemplo, la probabilidad de reincidencia de un acusado, y su uso para administrar una sentencia más o menos dura dependiendo de ello.

Ayer, el New York Times comentó el tema al hilo del mismo caso que el descrito en Wired, el de Eric Loomis, un criminal enviado a prisión el pasado marzo por un juez que utilizó a instancias del fiscal el resultado de COMPAS, un algoritmo creado por Equivant, e hizo constar en el sumario que

“you’re identified, through the COMPAS assessment, as an individual who is a high risk to the community.”

(“usted ha sido identificado, mediante la evaluación COMPAS, como un individuo que representa un alto riesgo para la comunidad.”)

La defensa de Loomis ha alegado que el uso del informe generado por el algoritmo vulnera los derechos del acusado, por ser un algoritmo secreto que no puede ser inspeccionado ni estudiado, lo que impide que sea discutido o cuestionado de manera efectiva. En efecto, no se trata únicamente de que el algoritmo sea secreto debido al interés de su creador, sino que, como comentábamos hace algún tiempo, los procesos de machine learning generan cajas negras que una inteligencia humana no puede monitorizar, que solo pueden ser valorados en función de la calidad de su output, lo que genera un inmediato problema de transparencia.

El proceso es claro: un banco, por ejemplo, podría fácilmente comenzar a alimentar un algoritmo de machine learning con todo su archivo de préstamos e hipotecas a lo largo de la historia y sus resultados en cuando a pago o impago, y muy posiblemente se encontraría con que, al cabo del tiempo, los resultados del algoritmo podrían mejorar las decisiones de un comité de riesgos integrado por personas con amplia experiencia en banca. Si efectivamente es así, el banco podría optar por eliminar a su comité de riesgos y sustituirlo por el proceso automatizado, en aras no solo de una reducción de costes, sino también de un resultado económicamente mejor. Sin embargo, esa decisión, que llevaría a que los clientes del banco viesen cómo la decisión de si les conceden o no una hipoteca pasa a depender de un algoritmo, podría tener dos problemas:

  • Falta de transparencia: de acuerdo, no me concedes la hipoteca… pero, ¿qué debería hacer si quiero llegara obtenerla? ¿Cuáles han sido las variables que han hecho que no me la concedas, y cómo debería trabajar para mejorar mi elegibilidad a la hora de obtener esa hipoteca más adelante? ¿Cómo me explicas una decision que ni tú mismo entiendes, y de la que solo sabes que maximiza tus posibilidades de obtener la devolución del préstamo?
  • Sesgos: contrariamente a lo que algunos podrían pensar, el uso de un algoritmo no garantiza una mayor objetividad, sino un reflejo de los sesgos que pudiese haber en los datos originales. Si los datos con los que el banco alimentó a su algoritmo, por ejemplo, reflejasen algún tipo de tendencia histórica en la que se tendía a rechazar, por ejemplo, a los solicitantes de un grupo determinado en función de criterios como sexo, etnia, religión, etc., esos sesgos podrían consolidarse en el algoritmo obtenido a partir de ellos, pero ser difíciles de identificar por parte de una inteligencia humana.

En la justicia norteamericana, son cada vez más los procesos que están siendo colonizados por algoritmos: muchos abogados comienzan a utilizar algoritmos como Ross, basado el el Watson de IBM, no solo para determinar qué jurisprudencia es más relevante para el caso que están preparando, sino incluso para examinar los posibles sesgos del juez que tienen asignado basándose en todas sus decisiones anteriores en posibles casos similares, con todo lo que ello conlleva de cara a optimizar los argumentos utilizados. A medida que ese tipo de metodologías de trabajo se consolidan, los procesos de machine learning que los soportan van convirtiéndose en cajas negras dotadas cada vez de una mayor complejidad, con procesos que un humano es cada vez más incapaz de replicar o entender.

La robotización o algoritmización de la justicia podría, por un lado, convertirse en un posible recurso para muchos de los problemas generados por la saturación de los tribunales: todo caso suficientemente claro, sencillo o evidente podría dejar de ocupar valiosos recursos de un juez o tribunal humanos, y pasar a ser determinado por un algoritmo automatizado, como ocurre ya de hecho con muchas infracciones de tráfico, en las que el algoritmo, en realidad, tiene una necesidad de inteligencia muy baja: basta con que un requisito determinado se cumpla, para que se genere un resultado. A medida que la complejidad de los casos se incrementa, podemos encontrarnos con casos como el descrito, que pueden generar una indefensión: ¿cómo defenderme de un veredicto basado en una caja negra que simplemente valora una serie de variables de entrada y devuelve un resultado? ¿Debemos integrar la posibilidad de explicar el veredicto en los propios algoritmos, exigiendo una determinación de los pesos empleados o de los cálculos utilizados de manera que un humano pueda llegar a seguirlos?

Hace pocos días, en Netexplo, tuve ocasión de entrevistar en el escenario a la fundadora de una compañía de diagnóstico médico mediante imagen, Qure.ai. La conversación que mantuve me generó cuestiones muy interesantes: a lo largo del tiempo, una vez que los médicos adoptan el uso de su tecnología para determinar si una radiografía, un escáner o una tomografía muestran un tumor, la habilidad de un médico para examinar manualmente una imagen podría llegar a perderse por falta de práctica, y aunque la máquina, a medida que mejora su algoritmo, pase a ofrecer resultados mucho mejores que los médicos humanos, estaríamos ante una situación de pérdida de una habilidad que los humanos habíamos desarrollado como tal. Es el mismo tipo de argumento que el empleado por Nicholas Carr en “Superficiales” cuando pensamos, por ejemplo, que antes de los teléfonos móviles éramos capaces de recordar más números de teléfono de memoria: internet nos vuelve estúpidos, porque sustituye habilidades que antes teníamos y las convierte en innecesarias. O también , por supuesto, contra-argumentado de la misma manera: nadie sería capaz, hoy en día, de escribir sobre una piedra, porque nuevas tecnologías y soportes lo han convertido en innecesario… y no pasa nada, simplemente aceptamos que el contexto, y en este caso, la inteligencia artificial, redefine la inteligencia humana. Pero ¿qué ocurre cuando esa pérdida de la habilidad humana se convierte en decisiones “subcontratadas” a una caja negra que no podemos interpretar?

 

Powered by WPeMatico

Identificando patrones de difusión viral

IMAGE: Johan2011 - 123RF

Facebook, en su cruzada contra las noticias falsas, anuncia un sistema del que ya habíamos hablado en entradas anteriores, pero que aún no se había concretado y que a mí me parece claramente el más prometedor: tratar de identificar mediante machine learning los patrones de difusión de noticias que resultan sospechosos, bien debido al uso de cuentas específicas identificadas como sospechosas de participar en esos esquemas, o por la forma en que se produce esa difusión.

¿Es la identificación de rumores y noticias falsas una tarea adecuada para el machine learning? Todo parece indicar que su uso resulta sumamente prometedor: por un lado, la red social cuenta con un repositorio de datos históricos importantes que han podido ser sujetos a comprobación, repositorio que además crece de manera cada vez más rápida debido a la cada vez mayor actividad de las páginas dedicadas al fact-checking. Por otro, se trata de un fenómeno con patrones identificables, en el que los actores implicados – que pueden ser partidos políticos, gobiernos u otras entidades con un interés en el tema – utilizan habitualmente sistemas conocidos, como cuentas falsas a las que recurren de manera repetitiva, o bots que generan una actividad elevada.

Un sistema similar es el utilizado por Twitter para la eliminación de cuentas creadas de manera automática, actividad en la que ya posee una amplia experiencia, pero que se ha convertido en un verdadero problema a la hora de evaluar la actividad en su red. Al principio, las cuentas falsas eran completamente obvias: cuentas que se creaban para venderlas como followers falsos que inflaban las estadísticas de quien pagaba por ello, pero que permanecían inactivas, y que a partir de un cierto tiempo como tales, eran identificadas como falsas. De ahí, se pasó a cuentas que llevaban a cabo una actividad determinada, tal como seguir algunas cuentas o hacer algunos retweets o likes que también podían ser susceptibles de comercialización, pero respondiendo a patrones generalmente identificables. La carrera continúa cuando esos patrones se someten a sistemas aleatorios para evitar su detección, en lo que empieza a parecerse al argumento de una novela de Philip K. Dick: robots diseñados para no ser identificados como tales, que luchan contra otros robots pensados para hacerlo, y pruebas diagnósticas que evalúan si lo son o no.

En el caso de Facebook y las noticias falsas, estamos aún al principio de esta carrera, pero la carrera armamentística comienza indudablemente más fuerte: los algoritmos de machine learning empleados tratarán de ir empleando metodologías cada vez más sofisticadas, en un intento de identificar los progresos de quienes tratan de esconder esos patrones, y también, por supuesto, de reducir el número de falsos positivos, de noticias reales que se vean sometidas a algún tipo de “cuarentena” por recibir una atención muy elevada de manera muy rápida pero genuina. Identificar los patrones de difusión viral real y separarlos de los artificiales creados en función de unos intereses determinados parece, en efecto, una tarea adecuada para un algoritmo de machine learning, pero también nos lleva a un cierto conflicto de intereses si Facebook pretende comercializar ese tipo de patrones de difusión viral a sus anunciantes, una tentación que ya ha esbozado anteriormente. Pronto empezaremos a ver los resultados.

 

Powered by WPeMatico

La sustitución del hombre por la máquina y la carrera hacia el abismo

IMAGE: David Crockett - 123RF

Un artículo con predicciones de Stephen Hawking compartido en el World Economic Forum con sus perspectivas sobre la sustitución del hombre por la progresiva automatización y el uso de inteligencia artificial me lleva a reflexionar un poco sobre las circunstancias en las que se desenvuelven ese tipo de procesos.

El artículo considera las profesiones relacionadas con la conducción, como taxista o chófer, como una de las más susceptibles de sufrir el impacto de la automatización, con una probabilidad del 89%. La promesa de Mercedes Benz de poner en el mercado taxis completamente autónomos en un plazo de tan solo tres años, unida a las inyecciones económicas de algunos gobiernos en ese tipo de proyectos y a la entrada progresiva de nuevos competidores significativos como Apple o Cadillac parecen estar configurando una hoja de ruta en conducción autónoma cada vez más clara y decidida.

En este contexto, los modelos económicos que rodean el fenómeno parecen ir definiendo de una manera cada vez más clara un escenario de carrera hacia el abismo, en el que la dinámica competitiva en un escenario desregulado lleva a una caída cada vez más fuerte de los ingresos que termina por asfixiar a los competidores tradicionales, dejando espacio únicamente para los entrantes que son capaces de aprovechar mejor las ventajas tecnológicas.

Una startup californiana creada en torno al concepto de taxis autónomos, Voyage, anuncia sus intenciones de ofrecer en el futuro transporte completamente gratuito, posiblemente financiado mediante publicidad. La idea resulta profundamente provocativa, y enlaza con algunas de las interesantes reuniones que mantuve en las oficinas de Daimler en Stuttgart hace algún tiempo, en las que algunos de sus directivos de innovación afirmaban estar trabajando de cara al futuro con modelos en los que el transporte dentro de las ciudades evolucionaba hacia esquemas completamente gratuitos para el usuario, y planteados siempre en modo servicio en lugar de en términos de posesión de un activo utilizado de manera subóptima. La idea de sistemas de transporte completamente gratuitos en función de una exposición a publicidad o mediante modelos de esponsorización no resulta extraña cuando hablamos de ciudades como Londres, en las que por tan solo dos euros, una persona tiene acceso al uso ilimitado de una bicicleta pintada con el rojo característico del logotipo del Santander, durante veinticuatro horas.

En San Francisco, la compañía de taxis más grande de la ciudad, Yellow Cab Co-Op, ha sido vendida a un competidor por un total de ¢810,000, menos de lo que cuesta una casa en la ciudad. Los culpables de tan brutal depreciación no son únicamente Uber, Lyft y compañías similares que operan en la ciudad, sino la coincidencia de varias demandas por accidentes que resultaron en indemnizaciones multimillonarias, y dejaron a la compañía en bancarrota. En un escenario en el que la siniestralidad inherente a la conducción humana se convierte en una variable capaz de hundir compañías, la conducción autónoma, sujeta a un número dramáticamente inferior de accidentes, se perfila claramente como la alternativa triunfadora.

¿Puede pensarse en evitar la transición de una actividad configurada como tradicionalmente humana, como la conducción, hacia su automatización total, en un escenario en el que la dinámica competitiva se configura de esta manera? No, los procesos como tales son total y absolutamente inevitables, y aquellos que intenten negarlos se verán inmersos en la obsolescencia y en la pérdida de competitividad. La única solución es anticipar ese tipo de procesos y optar por sistemas que mejoren la cobertura social y las alternativas de los cada vez más afectados, en lugar de permitir una espiral descendente que termine generando un problema social irresoluble.

 

Powered by WPeMatico

Entendiendo conceptos en Machine Learning

IMAGE: Ilya Akinshin - 123RF

Llevaba algunos días encontrándome artículos interesantes que pensé que podían ayudar a entender algunos temas relacionados con el machine learning y sobre los que me parecía que podía escribir, pero se me han ido acumulando, de manera que creo que lo mejor puede ser reseñar varios de ellos en una sola entrada con algunos comentarios al respecto.

El primero de ellos, The dark secret at the heart of AI, lleva a cabo un muy buen trabajo a la hora de explicar la “teoría de la caja negra“, que hemos comentado aquí en varias ocasiones: a medida que los algoritmos de machine learning se hacen más y más sofisticados, la posibilidad de que una mente humana entienda los procedimientos que utiliza para llegar a un resultado determinado se hacen menores, lo que nos lleva, en último término, a tener una caja negra que genera resultados que podemos poner a prueba únicamente en función de su calidad, sin entender cómo se llega a ellos. Si entrenamos un algoritmo con todo el historial de créditos concedidos y denegados por una entidad, por ejemplo, con el fin de que tome decisiones en el futuro que hoy tomaría un comité de riesgos, terminaremos por tener una caja negra de la que salen decisiones que podremos contrastar en función de la calidad de los resultados (si reduce el número de créditos concedidos y no devueltos, la daremos por válida), pero seremos muy probablemente incapaces de entender cómo llega la máquina a cada decisión: su funcionamiento será una caja negra en cuyos resultados confiamos en función de sus resultados.

Esto nos lleva otra cuestión: dado que cuando alimentamos un algoritmo, lo hacemos con todos los datos que tenemos disponibles y que, según nuestro razonamiento humano, contribuyen al resultado, lo que nos encontramos es que los progresos del machine learning redefinen el concepto que tenemos de inteligencia humana, y alteran nuestras percepciones de lo que podemos o no podemos hacer. El punto de partida para la máquina es lo que como humanos somos capaces de entender, a partir de ahí, todo es terreno inexplorado y métodos que requieren una potencia de cálculo de la que nuestro cerebro, sencillamente, carece. Así, cosas que hoy nos parece normal que haga un humano, las iremos viendo como absurdas a medida que sea una máquina la que las hace, y cosas que una máquina es capaz de hacer nos irán pareciendo cada vez menos sorprendentes y más normales. Muy pronto, el chatbot se habrá convertido en el estándar para el servicio postventa y para muchas cosas más como “explicarnos” las noticias, y la primera época de desencanto y decepciones dará paso a un momento en el que realmente, como les ocurre a las generaciones más jóvenes, preferiremos hablar con robots a hablar con personas, porque no solo nos darán un mejor servicio, sino que además nos eliminarán la sensación de estar “molestando a alguien” al otro lado (del mismo modo que un enlace no “se queja” ni “nos contesta mal” si hacemos clic en él diez veces). Simplemente, que sea un algoritmo conversacional el que te atiende cuando tienes cuestiones relacionadas con el producto o servicio de una compañía pasará a ser “lo normal”, y veremos como “del siglo pasado” cuando había personas dedicadas a hacer ese servicio.

Del mismo modo, habrá actividades que serán pronto algo del pasado, sean programar semáforos para evitar atascos, llevar a cabo decisiones de inversión o diagnosticarnos una enfermedad, y nos parecerá “raro” o “primitivo” pensar que esas actividades eran antes llevadas a cabo por una persona. Lo de sustituir a los conductores de taxi o de camión será visto como algo tan obvio, que nos parecerá increíble – y peligrosísimo – que esa actividad fuese desarrollada antiguamente de manera manual. ¿Significará eso que muchas personas que hacían ese trabajo se vayan directas al paro? Posiblemente, pero la solución no estará en poner impuestos a esos robots que han pasado a desempeñar esas actividades, sino formar y entrenar a las personas para que sean capaces de llevar a cabo otras actividades relacionadas. Y en ese sentido, recortar las prestaciones sociales, como parece la tendencia en países como los Estados Unidos, solo puede llevar a que el problema sea peor.

Esto no quiere decir, lógicamente, que no tengamos que buscar metodologías que, de alguna manera, permitan incrementar la trazabilidad de las decisiones tomadas por las máquinas. El artículo que describe el escenario de pesadilla imaginado por Tim Berners-Lee en el que las decisiones en el mundo financiero son tomadas por máquinas que crean y gestionan compañías, completamente al margen de nociones típicamente humanas (y de difícil explicación para una máquina), como el impacto social o el bien común es, sin duda, digno de una lectura, y cita la frase de esa reciente entrevista de Vanity Fair con Elon Musk en la que hablaba del mismo tipo de peligros, de la optimización automática y de lo que podría pasar con un algoritmo que optimizase la producción de fresas:

“Let’s say you create a self-improving AI to pick strawberries and it gets better and better at picking strawberries and picks more and more and it is self-improving, so all it really wants to do is pick strawberries. So then it would have all the world be strawberry fields. Strawberry fields forever.”

¿Deberíamos, llevados por este tipo de miedos, detener el desarrollo de este tipo de tecnología? Claramente no. Detener la tecnología es completamente imposible, lo único que podemos hacer es avanzar el conocimiento relacionado con su desarrollo para intentar poner coto a escenarios con ese tipo de consecuencias. Siempre, en algún garaje o en algún país con incentivos suficientes para ello, surgiría alguien dispuesto a poner a prueba esa tecnología, probablemente con más ganas aún si de alguna manera artificial se pretendiese detener esa tecnología.

¿Te gusta dibujar? ¿Se te da bien? Pues prueba a dibujar cuando un algoritmo intenta averiguar qué quisiste expresar con tu trazo, y te propone formas de representarlo. Piensa en lo que ese algoritmo hace, ponlo a prueba, y plantéate que lo que estás viendo es solo el principio, cuando acaba de empezar a aprender a hacer esa tarea. Imagínatelo dentro de un tiempo, cuando no solo muchas más personas hayan experimentado con él, sino que además, cuente con muchas más representaciones alternativas propuestas por más artistas, en distintos estilos y con diferentes posibilidades. Y solo hablamos de un algoritmo relativamente sencillo de reconocimiento de patrones. ¿Lo vas entendiendo?

 

Powered by WPeMatico