Category Archives: machine learning

Auto Added by WPeMatico

Machine learning para detectar comportamientos nocivos en la red

IMAGE: Redrockerz - 123RFUno de los principales problemas que redes como Twitter han experimentado a lo largo de los años es, como hemos comentado ya en bastantes ocasiones, su gestión del problema del acoso y el insulto.

Desde su fundación, Twitter intentó plantearse como una herramienta que hacía una defensa militante y maximalista de la libertad de expresión, lo que terminó por generar un entorno en el que era precisamente esa supuesta libertad de expresión la que se veía coartada por las reacciones de usuarios con comportamientos nocivos.

A lo largo del tiempo, ese ambiente nocivo le ha costado a Twitter grandes disgustos, desde un crecimiento menor de lo esperado, a un predominio creciente de comportamientos pasivos (lurking) frente a activos, e incluso a comprometer su futuro provocando que otras compañías dejasen de plantearse posibles ofertas de adquisición derivadas de las dinámicas venenosas existentes en la plataforma.

Tras múltiples intentos de corrección de estas dinámicas, muchos de los cuales son en realidad auténticas “tácticas de avestruz”, formas de ocultar el acoso a los ojos del acosado como si eso lo hiciese supuestamente desaparecer, ahora Twitter se plantea algo nuevo: una colaboración con IBM para que sea su sistema de machine learning, Watson, quien detecte, a través del estudio de patrones conversacionales, posibles situaciones de acoso y comportamientos abusivos, incluso antes de que sean denunciados.

¿Es posible que una inteligencia artificial detecte actitudes como el acoso o el abuso verbal? La cuestión no parece sencilla, porque hablamos de situaciones que van desde el insulto directo, que podrían ser detectadas simplemente con el uso de un diccionario, hasta otras mucho más complejas en las que se hace uso de la ironía, de los dobles sentidos, o de elementos no presentes en la conversación a los que se hace referencia de manera velada como insinuaciones, o a veces ni eso. Acosar a alguien puede incluir dinámicas muy complicadas, a veces incluso retorcidas, y utilizar patrones que van desde lo más sencillo a lo más alambicado.

¿A favor de Twitter? Cuenta posiblemente con uno de los mejores archivos online de comportamientos abusivos denunciados como tales. A lo largo de sus ya once años de historia, la compañía se ha visto envuelta en todo tipo de escándalos de elevada visibilidad y en una amplísima variedad de situaciones infinitamente menos conocidas que han afectado a usuarios de todo perfil y condición, con desenlaces conocidos. Para la compañía, resulta perfectamente posible estudiar en su inmenso archivo toda situación en la que determinadas actitudes hayan sido denunciadas como acoso, insulto, bullying, sexismo, incitación al odio, etc. e incluso etiquetar perfiles en función de su inclinación a exhibir ese tipo de comportamientos. Ese tipo de datos son precisamente lo que un algoritmo de machine learning necesita para ser entrenado correctamente, considerando que la semantización y el análisis del lenguaje humano ya son llevados a cabo algorítmicamente de manera más que satisfactoria. Obviamente, esto aún no incluye todo: algunas situaciones, como el uso de imágenes, pueden resultar algo más difíciles de procesar, pero en modo alguno representan algo que, a día de hoy, esté fuera de las capacidades de una inteligencia artificial, o en ultimo término, algo que puede recibir ayuda puntual de evaluadores humanos a la hora de determinar si efectivamente se trataba de una situación de ese tipo.

¿Puede Watson convertirse en el juez que determina si el comportamiento de un usuario debe ser considerado nocivo? Como afectado en algunos momentos por comportamientos de ese tipo que vio, además, cómo Twitter se lavaba las manos e incluso contribuía a empeorar aquella situación considerada por muchos como algo “simpático” y digno incluso de ser premiado, creo que sí, que el machine learning puede aportar un sistema que permita, cuando menos, etiquetar ese tipo de comportamientos, tipificarlos y permitir una gestión adecuada de los mismos, como también es muy posible que pueda colaborar en la detección de otro patrón habitual: la gestión de múltiples identidades y la apertura inmediata de otra cuenta para proseguir con el comportamiento nocivo cuando la primera cuenta es eliminada.

¿Existe algún tipo de conflicto entre un sistema así y la libertad de expresión? Todo depende de cómo queramos definir la libertad de expresión. Si consideramos que una red social debería servir para que todos podamos decir todo lo que se nos pase por la cabeza sin ningún tipo de freno o cortapisa, sí. Pero el ser humano vive en sociedad, la vida en sociedad se regula mediante determinadas reglas que van desde leyes a protocolos más o menos explícitos, y creo que a estas alturas, todos deberíamos asumir que el adjetivo “social” aplicado al sustantivo “red” debería implicar algo más que lo que actualmente implica. Al menos, en el caso de Twitter…

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico

Machine learning y reconocimiento de vídeo: una frontera importante

Image recognition in video (Google)Google anuncia durante su conferencia Google’s Next Cloud que ha desarrollado la capacidad de buscar y localizar objetos en un vídeo, y que la ofrece ahora en forma de una API de Cloud Video Intelligence disponible para desarrolladores, como ha hecho con el resto de sus APIs de machine learning. Junto con el anuncio de la adquisición de la comunidad de desarrollo de competiciones de modelos predictivos y analíticos Kaggle, también por parte de Google, son sin duda las noticias sobre el tema más importantes de la semana.

El anuncio y demostración del reconocimiento de objetos en vídeo, llevado a cabo por la profesora de Stanford y directora de machine learning y AI de Google Cloud, Fei-Fei Li, podría parecer relativamente trivial considerando que ya hace cierto tiempo que nos hemos acostumbrado a buscar por palabras clave en una colección de fotos y obtener resultados que no provengan directamente del etiquetado manual, sino del reconocimiento de los objetos existentes en las imágenes, pero la complejidad implicada en construir esa misma función para vídeo es muy superior, y las posibilidades que abre, para la compañía que posee el mayor repositorios de vídeo del mundo, también lo son.

¿Qué ocurre cuando un algoritmo puede visualizar un vídeo, entenderlo y reconocer los objetos que hay en él? Hasta ahora, un vídeo era un contenedor prácticamente cerrado, en el que las únicas formas que teníamos de localizar algo era mediante su título o etiquetándolo con palabras clave. Desde hace muchos años, esa situación nos parece “lo normal”, lo que la tecnología da de sí, una limitación tan asumida, que eran pocas las ocasiones en las que pensábamos en la posibilidad de algo así. El vídeo es uno de los componentes de la web sujeto a un índice de crecimiento mayor, pero por el momento, la capacidad de hacerlo indexable resultaba bastante limitada. ¿Qué ocurre cuando los algoritmos de machine learning son capaces, por un lado, de reconocer las palabras pronunciadas en un vídeo, pasarlas a texto y hacer que podamos buscar en él, y además, otros algoritmos se encargan de entender el contenido y permitir que podamos buscar imágenes? Pedir a un buscador que nos localice menciones o apariciones de algo – un objeto, una marca, un logotipo, una persona, etc. – en un repositorio de vídeo, y obtener una página de resultados en la que se nos indiquen los vídeos que lo contienen, y el lugar del vídeo en el que se encuentra… ¿Cuántas nuevas posibilidades y avenidas para la innovación se pueden abrir gracias a algo así?

Para Google, como para otros competidores en el entorno cloud computing, la forma de competir no es simplemente tratando de ofrecer más prestaciones por menos precio – lo que supondría especializarse en la clásica estrategia de liderazgo en costes – sino ser capaz de ofrecer prestaciones más sofisticadas para sus usuarios. La oferta de una función como esta hace que, de manera automática, la nube de Google, que hasta el momento se percibe como por detrás de otros competidores como Amazon o Microsoft, se convierta en una opción más interesante para aquellos competidores en los que el vídeo juega un papel fundamental, que ahora pueden plantearse mucho más servicios asociados a la puesta en valor de sus repositorios. Pero además, posibilita también el desarrollo de nuevos servicios planteados por otros competidores, que podrían permitir la adopción de modelos de plataforma para aquellos que consideran el vídeo como el centro de su negocio. Hablamos de dinamizar y convertir en indexables muchísimos millones de horas de vídeo, con contenidos de todo tipo, que se abren a la posibilidad de ser tratados de maneras muchísimo más ricas.

Ahora, una máquina puede ver un vídeo de un tigre, entender que es un tigre lo que hay en el vídeo, y encontrarte vídeos en los que aparezcan tigres. Todo ello, sin que nadie haya etiquetado o titulado ese vídeo como conteniendo un tigre. Lo mejor de estudiar el machine learning y la inteligencia artificial es que nunca dejas de sorprenderte.

 

Powered by WPeMatico

La revolución de los datos

IMAGE: Alexander Bedrin - 123RFMe llama la atención que el tema no oficial, pero si omnipresente de este Mobile World Congress de 2017 sea, mires prácticamente a donde quieras mirar, la revolución de los datos. En muy poco tiempo, hemos pasado de desarrollar actividades empresariales y centrarnos en que su planteamiento sea lo más competitivo posible, a buscar un fin que aunque esté obviamente muy relacionado, se plantee de una manera completamente diferente: centrarnos en que esas actividades generen la mayor cantidad posible de datos.

Tratar de interpretar las series históricas de eventos como el MWC requiere, por un lado, peinar algunas canas y, por otro, tratar de no verlo todo a través de un prisma de un solo color. Para alguien que trabaje en infraestructuras, es posible que todo lo que vea desde que entra en el MWC por el pabellón 1 hasta que sale por el 8 tenga que ver con cloud computing, con integración de datacenters, o con 5G. Para el que trabaje en seguridad, todo lo que verá serán, seguramente, cuestiones relacionadas con este aspecto. Capturar el elemento común, ese “the next element” convertido en tema oficial del evento, requiere una visión de conjunto, una abstracción tomando algunos pasos de distancia. Y mi impresión persistente es que ese tema omnipresente es la reinterpretación de todas las actividades empresariales a través del prisma de los datos: los datos convertidos en la auténtica gasolina que mueve el negocio.

El primer anuncio importante del MWC fue, sin duda, esa 4ª plataforma de Telefonica que reorienta toda la compañía precisamente a eso, a la gestión de los datos del usuario (muy relevante en ese sentido la entrada del propio Chema Alonso en la que describe y trata de aclarar el planteamiento al margen de visiones conspiranoicas): la transformación digital de una operadora es absolutamente necesaria para evitar su comoditización total, y esa transformación requiere una atención exquisita al dato, así que APIficaremos toda nuestra actividad y la haremos girar en torno a eso. Que sí, que el fin último es que los servicios sean mejores y no te quieras ir… pero todo ello, gracias a la generación y la explotación de datos. Todo el negocio, planteado en torno a los datos que generas como usuario, y en la manera de ofrecértelo con las reglas y las garantías adecuadas para que lo entiendas como algo positivo, no siniestro.

Pero en realidad, da lo mismo quién seas: si eres Telefonica, perfecto, la cosa parece clara. Pero si eres una marca de coches – hace cuatro años solo había una, Ford, y este año ya son multitud – el planteamiento será el de reorientar toda la experiencia de un usuario a, de nuevo, la generación de datos. ¿Qué es, como comenté ayer en mi charla en el stand de Seat, el vehículo conectado? Simplemente, una manera de intentar mejorar el conjunto de producto y servicio de una compañía de automoción gracias a los datos que genera un vehículo que almacena y transmite todo lo que hacemos con él. Desde esa Tesla pionera que en 2013 decidió incluir la conectividad total de sus vehículos mediante un acuerdo con AT&T en el precio de los mismos (cuatro años de conectividad prácticamente ilimitada con cada vehículo vendido) hasta que ayer, la primera marca grande, Chevrolet, anunció lo mismo por $20/mes, todo encaja perfectamente: un coche ya no es un vehículo para desplazarte de un punto a otro, sino un enorme ordenador con ruedas convertido en la máxima expresión de la tecnología móvil, y que por tanto, tiene todo el sentido del mundo mostrar en un evento como el MWC. Todo en la idea del automóvil conectado apunta a lo mismo: generación constante de datos para poder convertir la experiencia del usuario en algo infinitamente más versátil, pasar de vender un producto, a vender una solución completa que lo incluye todo, y se basa en la explotación de los datos que el usuario genera con su vehículo. Eventualmente, ese usuario dejará de tener una participación activa en la conducción, o el vehículo podrá dejar de ser suyo y convertirse en un modelo de uso mediante login similar al de un Chromebook, o veremos cómo se integran en el precio y la experiencia del vehículo cuestiones como el mantenimiento o el seguro, pero todas esas posibilidades estarán alimentadas y tendrán sentido gracias a  la generación constante de datos.

La revolución de los datos y la transformación digital se expresa con absoluta claridad en esos momentos, cuando eres capaz de pasearte por la inmensidad de un MWC y cuando vuelves a tu hotel agotado te das cuenta de que todo, prácticamente todo lo que has visto tenía ese hilo conductor común. Si algo va a cambiar en los próximos años va a ser eso, la orientación de toda la actividad empresarial a la generación y explotación del dato, a su análisis constante mediante todo tipo de técnicas de machine learning, y al replanteamiento de las ventajas competitivas de todas las compañías, independientemente de su actividad, en torno a ello. Todo eso que llevas tiempo explicando en clase, esa transformación digital que incluye las relaciones con los clientes, los flujos de datos internos y el replanteamiento del modelo de negocio, convertida ya en un elemento común a todos los negocios, y con la idea de que aquellos que no lo vean, simplemente dejarán de ser competitivos.

Si no has empezado con ese ejercicio, con esa reinterpretación completa de tu negocio – sea el que sea – en torno al dato… ya estás llegando tarde.

Powered by WPeMatico

Arreglando la naturaleza humana

IMAGE: Ayelet Keshet - 123RFMi columna de El Español de hoy se titula “Algoritmos y mala leche“, y está dedicada a Perspective, el algoritmo anunciado por Jigsawla incubadora de ideas de Alphabet dedicada a la aplicación de soluciones tecnológicas para luchar contra la censura, los ciberataques o el extremismo, capaz de detectar, en un hilo de comentarios en una página, cuáles contienen insultos, descalificaciones, ataques personales o, de un modo general, lenguaje tóxico

Hablamos de un algoritmo de machine learning: comentarios recogidos de hilos de publicaciones como The Economist, The Guardian, The New York Times o Wikipedia (la experiencia con The New York Times aparece recogida en este artículo) fueron evaluados por una serie de personas mediante encuestas, y clasificados en una escala que iba desde “muy tóxico” hasta “muy saludable”, con la toxicidad definida como “comentario maleducado, no respetuoso o no razonable que puede decidirte a abandonar una conversación”. Lo que el algoritmo hace es tratar de reconocer esos comentarios, evaluarlos, y buscar casos similares para adscribirles una etiqueta similar en forma de porcentaje de probabilidad.

A partir de ahí, la herramienta – por el momento en inglés – se pone a disposición de quien la quiera utilizar para continuar con el entrenamiento del algoritmo. El uso que el propietario de la página desee hacer de ella es completamente abierto, desde simplemente etiquetar comentarios en función de su supuesta toxicidad para ayudar a la moderación, a directamente conectarlo con sistemas que eliminen o impidan enviar determinados comentarios en función de su contenido, y siempre con la posibilidad de retroalimentar el aprendizaje.

El algoritmo intenta solucionar uno de los problemas más antiguos vinculados a la participación en la web: el hecho de que las personas y los sistemas de moderación no son escalables. Si en esta simple página que suele publicar únicamente un artículo al día me ha costado en algunas temporadas muchísimo tiempo y esfuerzo moderar los comentarios para tratar de mantener una conversación saludable y productiva, imaginar la tarea de un periódico que pueda publicar cien veces más artículos y dedicados a temas intrínsecamente polémicos por su naturaleza como el deporte o la política es algo que excede las posibilidades de muchos medios, y que ha llevado a muchos editores a tomar decisiones que van desde el no incluir comentarios, hasta abandonar de manera prácticamente total los hilos a su suerte y permitir que se conviertan en auténticos estercoleros. El problema es importante, porque anula una de las que deberían ser las ventajas más interesantes de la web: la posibilidad de participar en foros susceptibles de enriquecer nuestra opinión o de ampliar nuestros puntos de vista.

Es pronto para saber si Perspective funcionará satisfactoriamente, o si será pasto de usuarios malintencionados que se dediquen a intentar envenenar su funcionamiento añadiendo información falsa. Por el momento, está disponible en la página para jugar a introducirle textos en inglés – funciona con algunos insultos en español, pero simplemente derivado de su dinámica de aprendizaje y de su uso relativamente popular en inglés – y ver cómo los evalúa, y puede ya ser añadido como API a páginas que quieran utilizarlo para hacer pruebas. En cualquier caso, tanto si funciona como si no, la idea de poner a un algoritmo a solucionar un problema de la naturaleza humana que las personas no hemos sido capaces de resolver con soluciones mínimamente escalables no deja de ser una paradoja y todo un elemento para la reflexión…

 

Powered by WPeMatico

El año de la división digital

El año de la división digital - Capital (pdf)

Desde la revista Capital, Jordi Benítez me pidió una columna sobre la que pensaba sería la característica principal del 2017 en cuanto a la evolución tecnológica, que titulé “El año de la división digital” (pdf). Fue publicada con el primer número del año, pero se me había pasado reseñarla hasta ahora.

En mi opinión, el año 2017 será el año en el que las señales del llamado digital divide se intensifiquen para hacerse cada vez más insoportables o más evidentes para muchos. A medida que la tecnología ofrece más y mejores posibilidades, metodologías más productivas, sistemas de interacción más ágiles, o modelos de negocio que dan lugar a una mayor eficiencia, la sociedad va escindiéndose entre aquellos que los abrazan y los usan con actitudes que van desde el tecno-fanatismo hasta el pragmatismo, mientras otros segmentos de la sociedad los ven como algo aparentemente incomprensible o implanteable.

La división, obviamente, no se queda en las personas. Alcanza a las empresas, y genera una frontera entre aquellas que son capaces de transformarse para extraer ventajas competitivas de las características del entorno y la progresiva ubicuidad de la tecnología, y aquellas que simplemente, siguen haciendo lo mismo que hacían, con leves variaciones cosméticas, y van cayendo progresivamente en la ineficiencia. Hoy precisamente estaré hablando de ese tema en The Data Day 2017: cómo las compañías que no son capaces de entender la necesidad de plantear su negocio en torno a la importancia del dato, de su procesamiento, de la obtención de los mejores algoritmos y de la mejora continua de sus sistemas de machine learning están destinadas a ser cada vez menos competitivas y desaparecer. Y no es una cuestión de complejidad: las barreras de entrada han caído hasta límites insospechados. Es una cuestión de mentalidad.

A continuación, el texto completo de la columna:

 

El año de la división digital

Todas las señales lo indican: el 2017 será el año en el que se consolide la gran división digital. El llamado “digital divide” que hace algún tiempo se utilizó para referirse a la brecha entre conectados y desconectados, utilizado, ahora que prácticamente todos estamos conectados y llevamos un ordenador en todo momento en el bolsillo, para distinguir a los que son capaces de entender y acostumbrarse a un mundo cada vez más sometido al dominio de lo digital, frente a los que utilizan su smartphone… para poco más que hablar por teléfono. 

Lo digital ha pasado a dominar nuestras vidas de manera insospechadas. Para mis padres, que acaban de pasar unos días en mi casa por navidad, la idea de que los contenidos se visualizan a demanda en nuestro televisor, que se puede llegar a casa a las ocho de la tarde y pedir a Amazon lo que te falta para desayunar y que te lo traiga en menos de dos horas, o que se pueden soltar las manos del volante del coche porque él se encarga de mantener la distancia de seguridad y de permanecer entre las líneas de la calzada son cuestiones que resultan obviamente atractivas e incluso inteligibles… pero inalcanzables. 

Pero la división digital no se refiere únicamente a mis padres o a su segmento sociodemográfico. Afecta también a los entornos corporativos. En 2017, empezaremos a ver cómo las compañías que de verdad abrazan los entornos digitales para permitir que sus empleados redefinan lo que sus antepasados entendían por trabajo se convierten en enormes imanes capaces de atraer talento, mientras las que siguen exigiendo ocho horas de culo pegado a una silla pierden progresivamente a sus empleados de valor. Veremos cómo una serie de compañías privilegiadas comienzan a introducir inteligencia artificial y machine learning en cada vez más procesos, mientras que las que siguen utilizando a imperfectos humanos ven caer progresivamente su competitividad. Veremos cómo algunas compañías se afanan por eliminar los trabajos aburridos, sucios, peligrosos o deshumanizantes sustituyéndolos por procesos robóticos en los que los robots ya no son meros autómatas, sino entes capaces de tomar decisiones en contextos cada vez más complejos. Y sobre todo, veremos cómo ese tipo de proyectos están cada vez más dentro de las posibilidades de cualquier compañía que haya entendido sus posibilidades, gracias a herramientas cada vez más sencillas, provistas como servicios en la nube a las que las empresas conectan sus datos. 

La tecnología es muy paradójica: a medida que se sofistica y es capaz de hacer más y mejores cosas, sus barreras de entrada no se elevan, sino que disminuyen. La tecnología de 2017, infinitamente más potente que la que podíamos pensar en disfrutar a principios de este siglo, no tiene una complejidad mayor vinculada a su uso, sino todo lo contrario. A principios de siglo, cualquier cambio de programa implicaba acciones de formación. Ahora, la mayoría de las herramientas que utilizamos en nuestro día a día digital las hemos aprendido a utilizar nosotros mismos, tras descargarlas en un minuto de una app store

La división digital no es, contrariamente a lo que muchos piensan o a lo que podría indicar el ejemplo de mis padres, una cuestión de edad. Es una cuestión de voluntad, de encontrar una propuesta de valor adecuada, de verse uno mismo haciendo determinadas cosas aunque cueste, aunque obligue a abandonar zonas de confort que hemos definido a lo largo de una vida. La tecnología es cada vez más barata, más accesible y más inclusiva, pero no hace milagros. En 2017 veremos quiénes son capaces de entenderlo así, y quiénes se quedan fuera. 

Powered by WPeMatico

De los datos a la inteligencia artificial

IMAGE: Titipong Jaiharn -123RFUn artículo sobre los avances de Facebook en el reconocimiento de imágenes, que le permite ya establecer sistemas de búsqueda en función del contenido que aparece en ellas, me lleva a reflexionar sobre la importancia de la disponibilidad de datos de cara al desarrollo de algoritmos de machine learning e inteligencia artificial: a nadie se le escapa que la capacidad de Facebook para desarrollar estos sistemas de procesamiento y reconocimiento de patrones en imágenes tiene que ver ni más ni menos que con sus posibilidades de acceder a decenas de millones de imágenes etiquetadas y comentadas de sus usuarios en la propia red de Facebook y en la de Instagram.

A la hora de pensar en las posibilidades de la inteligencia artificial para nuestro negocio, tenemos que comenzar por las posibilidades de que disponemos para obtener datos que analizar. Datos que, además, no son todos creados iguales: no se trata solo de que el archivo en papel no vaya a servirnos de nada, sino que además, necesitamos formatos y herramientas suficientemente abiertos como para permitir su procesamiento, algo que no siempre es sencillo cuando hablamos de compañías que, durante mucho tiempo, procesaron sus datos en sistemas legacy de difícil integración.

El hecho de provenir de una etapa en la que muchas industrias se han preocupado de ponerse al día en temas relacionados con el llamado big data facilita en cierta medida esa tarea: cuando ya tienes data scientists en plantilla, lo mínimo que cabe esperar es que hayan llevado a cabo la limpieza y catalogación de las fuentes de datos con las que pretenden contar en sus analíticas y visualizaciones. Pero tras el big data, llega el siguiente paso: la inteligencia artificial. De hecho, los progresos en inteligencia artificial están llevando a los data scientists a darse cuenta de que necesitan evolucionar hacia esa disciplina, o ser considerados profesionales obsoletos.

Los datos son la auténtica gasolina que mueve la inteligencia artificial. La disponibilidad de datos nos permite desarrollar los mejores algoritmos, y sobre todo, mejorarlos a lo largo del tiempo para que vayan produciendo mejores resultados y se adapten a condiciones cambiantes. La disponibilidad de cada vez más datos en conducción autónoma a medida que sus flotas hacen más y más kilómetros es lo que permite a Tesla reducir el número de disengagements, episodios en los que el conductor se ve obligado a tomar el control, hasta los niveles actuales: tan solo entre octubre y noviembre del pasado 2016, cuatro vehículos autónomos de la compañía recorrieron 885 km en carreteras californianas, y experimentaron 182 de esos momentos, en lo que representa un punto de partida a partir del cual seguir mejorando con la experiencia acumulada. De hecho, Waymo, que cuenta con los datos acumulados por todos los experimentos en conducción autónoma de Google, consiguió a lo largo del año 2016 hacer descender el número de esos disengagements desde los 0.8 por cada mil millas, hasta los 0.2, en lo que supone una progresión impresionante alimentada, de nuevo, por la disponibilidad de datos que procesar.

El verdadero error en inteligencia artificial es pretender juzgar un algoritmo por sus resultados en el momento en que lo obtenemos, sin tener en cuenta los progresos que puede alcanzar a medida que dispone de más y mejores datos. Escribir una crítica sobre el Echo de Amazon diciendo que es poco menos que un despertador con radio un poco ilustrado es una actitud que olvida lo fundamental: que con ocho millones de dispositivos en el mercado, las posibilidades que Amazon tiene de ir mejorando la inteligencia de Echo son prácticamente ilimitadas, y que eso significa que cada vez nos entenderá mejor, que irá reduciendo progresivamente sus errores y que se convertirá, sin duda, en un aparato que terminaremos planteándonos cómo podíamos vivir sin él.

¿En qué deporte pueden plantearse primero la llegada de árbitros basados en inteligencia artificial? Por supuesto, en el fútbol americano, el ejemplo clásico de deporte en el que todo está cuantificado, analizado y procesado hasta el límite. ¿Qué compañías de seguros serán capaces primero de acceder a los ahorros y las mejoras de la peritación basada en inteligencia artificial? Aquellas que dispongan de grandes cantidades de datos correctamente almacenados y estructurados para poder procesarlos y entrenar con ellos a la máquina. ¿Qué instituciones académicas serán las primeras en extraer partido de la inteligencia artificial en el proceso educativo? Las que dispongan de archivos completos, correctamente estructurados y preparados para su tratamiento. Y puedo asegurar que eso, que parece tan básico, no lo tienen todas las instituciones que conozco.

Entender la evolución de los datos al machine learning y a la inteligencia artificial es, para cualquier directivo, cada vez más importante, y para una compañía, cada vez más estratégico. Es así como se decidirá qué compañías terminan a qué lado del nuevo digital divide.

 

Powered by WPeMatico

¿Póker? Dominado. A por el siguiente reto…

IMAGE: Yuriy Davats - 123RFEl póker, como anteriormente el ajedrez o el Go, pasa a engrosar los juegos que un conjunto de algoritmos ya es capaz de hacer mejor que una persona. El pasado día 31 de enero, tras veinte días de partidas de Heads Up, No Limit Texas Hold ‘em, cuatro humanos considerados entre los mejores jugadores de póker profesionales del mundo fueron derrotados por una inteligencia artificial, Libratus, producto del trabajo de investigadores de Carnegie Mellon dirigidos por Tuomas Sandholm.

Veinte días mirando pantallas de ordenador, jugando unas 120,000 manos, y reuniéndose por las noches en sus habitaciones de hotel para coordinar estrategias conjuntas para vencer a la máquina no han sido capaces de vencer a un algoritmo que rápidamente entendía las estrategias seguidas por los humanos y se las arreglaba para neutralizarlas.

La partida, en realidad, estuvo claramente dominada por Libratus desde el primer momento: los jugadores humanos no llegaron a estar siquiera cerca de la victoria en ningún momento. De hecho, mantener el campeonato hasta el final tenía como objetivo obtener una victoria que pudiese ser considerada estadísticamente significativa, es decir, que con un 99.7% de probabilidad puede decirse que no es producto del azar.

Pero con todo lo interesante y lo morboso que pueda representar la victoria de una máquina en un juego como el póker, eso no es lo realmente importante. Lo que verdaderamente importa es que los algoritmos empleados no eran específicos del juego del póker, ni trataban de explotar los errores del contrario. Simplemente tomaban como entradas las reglas del juego, y se centraban en mejorar su propia estrategia teniendo en cuenta un entorno de información imperfecta, en el que se tienen como entradas las cartas recibidas, las que están en la mesa, y las apuestas efectuadas por cada jugador. El escenario del Texas Hold ‘em con apuesta ilimitada, con la incertidumbre de dos cartas ocultas con cuyos posibles valores el jugador tiene que especular, ofrece un ejemplo muy bueno de juego con información imperfecta, y sirve como aperitivo para el planteamiento de otros juegos no tan lúdicos, que pueden ir desde la negociación, la ciberseguridad, las finanzas, o incluso la investigación de tratamientos antivirales (tomando las mutaciones del virus, cuya secuencia genética es conocida, como variables inciertas que le permiten sobrevivir a determinados medicamentos). Muchos planteamientos pueden tener esquemas similares a los del póker: aquí ya no hablamos de que una máquina pueda aprenderse las reglas de un juego y simplemente aplicar la fuerza bruta computacional para calcular, hablamos de otra cosa. Lo que la victoria de Libratus significa es, lisa y llanamente, que una inteligencia artificial ya es mejor tomando decisiones estratégicas en un entorno de información incierta que los seres humanos. Con todo lo que ello puede conllevar.

Si pensabas que una máquina solo era capaz de hacer de manera repetitiva aquello para lo que la habían programado, piénsalo de nuevo. Una máquina ha sido capaz de analizar 120,000 jugadas de póker y, teniendo en cuenta las cartas recibidas, las cartas en la mesa y las apuestas de cada uno de sus oponentes, ganar consistentemente en un número estadísticamente significativo de ocasiones, suficiente como para descartar que fuese simplemente cuestión de suerte. Ahora, cuando te plantees jugar al póker, ya lo sabes: no importa cómo de bien lo hagas, hay una máquina que lo haría mejor que tú y te ganaría sistemáticamente.

Prepárate para llegar a esa conclusión en cada vez más escenarios…

 

Powered by WPeMatico

Abierto frente a cerrado: Apple y la inteligencia artificial

IMAGE: Nasirkhan - 123RFApple anuncia su incorporación a Partnership on AI, la alianza formada por compañías como Amazon, IBM, Facebook, Google o Microsoft, con el fin de compartir avances y mejores prácticas en el ámbito del desarrollo de machine learning e inteligencia artificial.

El movimiento se ve como un principio de apertura en una compañía que tradicionalmente ha llevado a cabo todo su desarrollo completamente por su cuenta, pero que se enfrenta ahora a un ámbito en el que las cosas no parecen ser tan sencillas. Apple fue vista como pionera en el campo de la inteligencia artificial debido al temprano desarrollo e incorporación al iPhone de su agente inteligente Siri, pero a lo largo del tiempo, las prestaciones de Siri han sido eclipsadas por desarrollos de otras compañías, y la han relegado a una posición percibida como mucho menos puntera. De hecho, la compañía parece tener importantes problemas a la hora de atraer talento en este terreno, y la razón principal que se atribuye para ello es precisamente su falta de apertura: lo que un desarrollador de inteligencia artificial parece necesitar en el momento actual es precisamente abrirse a la comunidad, compartir avances y novedades, y publicar sus logros para contrastarlos con otros desarrolladores, precisamente lo que Apple tiende a restringir a sus trabajadores. Para una compañía que tradicionalmente ha sido vista como un auténtico imán para el talento y cuyas ofertas son consideradas un objeto de deseo, la situación de ver cómo sus ofertas de trabajo son rechazadas sistemáticamente debe suponer una preocupación difícil de sostener en el tiempo.

La misión del Partnership on AI se establece como

… estudiar y formular las mejores prácticas en las tecnologías de IA, para avanzar en la comprensión pública de la AI y servir como una plataforma abierta para la discusión, el compromiso sobre la IA y sus influencias sobre las personas y la sociedad.

Indudablemente, una oportunidad para que las compañías participantes compartan un foro común en el que monitorizar progresos y discutir prácticas… pero claramente, el tipo de espacio en el que nunca ha sido habitual encontrar a la compañía de la manzana. La inteligencia artificial, como entorno de desarrollo acelerado y con fuertes posibilidades de convertirse en estratégico – o en llegar incluso a representar un digital divide entre las compañías que la adoptan y las que no – demanda nuevas formas de entender la competitividad, formas que puede resultar complicado acomodar en la cultura corporativa hermética de Apple, basada en un fuerte secretismo. Si el anuncio de ayer supone de alguna manera el principio de un proceso de apertura en este sentido, muchos lo valorarían como algo indudablemente positivo…

 

Powered by WPeMatico

Hombre frente a máquina: el problema del handover

IMAGE: Lightwise - 123RFEl Consumer Electronics Show de 2017 que hoy termina ha sido extraordinariamente pródigo en anuncios que permiten prever una aceleración de los progresos en torno a la conducción autónoma: alianzas como la de BMW, Intel y Mobileye que informan de que tendrán flotas de vehículos autónomos en las carreteras este mismo año 2017, marcas como la coreana Hyundai que anuncia modelos autónomos en torno a los $30,000 para competir con el anunciado Tesla Model 3, o la japonesa Honda tomando posiciones en torno a la idea de ecosistemas autónomos, entre otros. Sin duda, la idea de la conducción autónoma, que muchos consideraban prácticamente ciencia-ficción hace muy poco tiempo, está tomando ya una importancia crucial en la estrategia de muchas marcas, y en el planteamiento de las ciudades tal y como las conocemos.

Pero a medida que las experiencias con vehículos autónomos van permitiendo establecer más bases solidas de trabajo, un problema parece estar configurándose como relativamente complejo: el llamado handover, o transferencia del control del vehículo desde el sistema autónomo al conductor cuando resulta necesario. El problema, de hecho, fue uno de los factores fundamentales que Google tuvo en cuenta hace algunos años cuando tomó la decisión de orientarse directamente hacia la autonomía total, saltándose los pasos previos por los que la mayoría de las compañías optaron y que consistían en ir suplementando cada vez más la conducción con ayudas automáticas hasta llegar a un punto en que el humano no tuviese que intervenir.

El problema del handover estriba en la capacidad del humano para hacer frente a una situación compleja como una circunstancia de la conducción ante la que un sistema automatizado no sabe qué hacer, con un preaviso que, por lo general, sería sumamente breve. Según investigaciones desarrolladas en Stanford, esa toma de control afecta fuertemente al comportamiento del conductor, y puede resultar sumamente problemática. Por otro lado, las circunstancias en la conducción habitual pueden alejarse en muchas ocasiones de lo previsible: obras, accidentes, bloqueos, instrucciones de policías o personal de mantenimiento, acciones de otros conductores, etc. generan situaciones que se salen de la norma, en las que es preciso en ocasiones llevar a cabo acciones no previstas, como invadir el carril contrario o hacer caso omiso de una línea continua.

Este tipo de cuestiones han llevado a Carlos Ghosn, CEO de Nissan, a estimar que la posibilidad de que un sistema autónomo sea capaz de reaccionar adecuadamente a todas estas circunstancias está aún muy lejos, y a decidir que proveerá a sus vehículos autónomos con acceso a un sistema de ayuda remota en el que habrá personas que tomarán decisiones cuando el vehículo se encuentre ante una situación en la que no sepa qué hacer. El equivalente de un call-center, preparado para asistir al vehículo en situaciones que puedan exceder las capacidades de toma de decisiones de los algoritmos. La idea, por supuesto, no es que una persona entre en acción desde un lugar remoto para reaccionar intentando mantener el coche en la carretera cuando se ha encontrado hielo de forma inesperada, porque eso sería humanamente imposible, pero sí que cuando un vehículo se encuentre en una situación poco habitual, pueda detenerse y pedir asistencia remota.

La idea se contrapone con las tesis mantenidas por quienes defienden que una inteligencia artificial, tras los adecuados procesos de machine learning, no solo podrá hacer frente a este tipo de situaciones, sino que además, lo hará previsiblemente mejor que un ser humano. Es decir, que el entrenamiento progresivo es capaz de generar algoritmos que no se limitan a cumplir las normas de la circulación de manera estricta, sino que también son capaces de entender las situaciones en las que es preciso infringirlas por alguna razón, sea una excepción, una obra, un guardia indicándonos que pasemos cuando el semáforo está en rojo, etc.  A favor de esta teoría, la demostración palpable de los progresos de los algoritmos y sensores de conducción autónoma de vehículos ya comerciales como los de Tesla, capaces ya incluso de prevenir un accidente segundos antes de que tenga lugar. Indudablemente, la idea del aprendizaje compartido por flotas enteras de vehículos que se aplica a todos ellos de manera inmediata cobra aquí un indudable valor.

¿Quién gestiona mejor las excepciones? Una persona avisada con muy pocos instantes de antelación, o un algoritmo adecuadamente entrenado para lidiar con ellas y que cuenta con la experiencia de toda una flota? La idea planteada por Nissan parece simplemente configurarse como una ayuda adicional en determinadas circunstancias puntuales en las que sea posible detenerse para tomar una decisión asistida remotamente, circunstancias que indudablemente no se darán en todos los casos, pero ¿qué hacer ante una emergencia ante la que devolver el control a un conductor distraído resulte poco menos que demencial? La respuesta a esta pregunta afecta claramente a la estrategia de las marcas: Google – ahora Waymo –  y su salto directo a la autonomía total retirando completamente al humano de la responsabilidad, frente a Tesla y otros con sus sistemas progresivos de ayuda en determinadas circunstancias. Comercialmente, el primer enfoque es mucho más radical, requiere mayores inversiones y plantea un panorama absolutamente disruptivo en el que muy pocos tendrían un vehículo propio, sino que accederían a su uso como servicio. El segundo es más gradual, más aceptable sobre todo por las compañías de automoción, y posiblemente menos brusco también para muchos usuarios, que prefieren seguir planteando la conducción autónoma como una posibilidad, no como una obligación.

Sin embargo, que Google ya considere su tecnología, a pesar de su radicalidad, tan madura como para hacer spin-off de la misma con supuesta viabilidad comercial podría alterar este panorama. Como en otras ocasiones, me inclino por pensar que esta transición se va a dar de manera bastante más rápida de lo que muchos esperan…  incluidas las compañías tradicionales de automoción.

 

Powered by WPeMatico