Category Archives: Google

Auto Added by WPeMatico

Cuando la publicidad programática no atina

IMAGE: Samuraitop - 123RFGoogle se ha encontrado con un serio problema en el Reino Unido, cuando de repente, el gobierno y algunos grandes anunciantes hicieron pública su decisión de interrumpir la publicidad institucional en YouTube debido a la aparición de anuncios gubernamentales en páginas de vídeos con contenidos calificables como de incitación al odio, racistas, antisemitas, extremistas o de mal gusto.

El problema, que ha obligado a la compañía a prometer controles más rigurosos en el etiquetado de ese tipo de contenidos, hace evidentes las carencias del esquema publicitario que más crece en la red: la publicidad programática o real-time bidding, en la que cada impacto proviene de un proceso de subasta en tiempo real de la audiencia supuestamente cualificada de una página.

La supuesta idea de hacer llegar el anuncio correcto a la persona adecuada y en el momento perfecto, administrada mediante un sistema que permite al más interesado formular el precio más elevado, choca con muchos problemas en su conversión en realidad. Y uno de ellos es tan claro y evidente como que los contenidos no pueden ser definidos únicamente por las audiencias que congregan, y menos aún si cualificamos a esas audiencias únicamente en función de unas pocas variables sociodemográficas. La realidad, como todos sabemos, es mucho más compleja que unas pocas variables.

En el caso de YouTube, resulta evidente que Google tiene un problema: las cifras que mueve, en torno a trescientas horas de vídeo recibidas y publicadas cada minuto que pasa, hacen imposible una supervisión manual: se calcula que serían necesarias unas cincuenta mil personas viendo vídeo constantemente durante ocho horas al día para poder llevarla a cabo. En su lugar, YouTube emplea un sistema de alertas basadas en herramientas para la comunidad de usuarios: cuando varias personas marcan un vídeo como ofensivo, este pasa a un sistema de supervisión manual que podría llevar a varias medidas, desde su eliminación total de la plataforma a su exclusión del sistema de publicidad, pasando por bloqueos locales, exclusión de determinadas audiencias, u otras posibilidades.

El problema para un gobierno o compañía no termina simplemente diciendo “yo no sabía nada” o “no tengo ni idea de en qué sitios sale mi publicidad”, porque aunque nadie tenga por qué asumir que una publicidad determinada suponga el estar de acuerdo con los contenidos de una página, la cuestión va mucho más allá de un simple problema estético: es que con la impresión publicitaria se está contribuyendo a financiar al creador del contenido. De ahí que la idea de que con dinero público o con los beneficios de una marca se estén aportando recursos a causas como el racismo, la xenofobia, el odio, el terrorismo o el antisemitismo, entre otras, resulte tan preocupante.

Por otro lado, la cualificación de los contenidos está lejos de ser el único problema de la publicidad programática. A medida que crece y se generaliza este mecanismo, se está dando lugar a un ecosistema en el que cunde la sensación de que “todo es mentira“: audiencias generadas a golpe de bots, cantidades crecientes de click fraud, reproducciones de vídeo simuladas o inexistentes, analíticas falseadas… hace algún tiempo, escribía en El Español sobre la necesidad de un reset para la industria de la publicidad en general: en muy poco tiempo, la red ha pasado de representar la promesa de un medio perfecto para alcanzar con nuestros mensajes publicitarios a las personas a las que más les pudiesen interesar, a convertirse en una especie de salón de los espejos en el que se fabrica tráfico, se compra tráfico, se vende tráfico y se simula tráfico. 

Una vez más, se cumple la regla general: una vez creado un ecosistema atractivo y sometido a un fuerte crecimiento, no tardan en aparecer aprovechados dispuestos a enturbiarlo, a timar a incautos y a destrozar su propuesta de valor. Nada nuevo bajo el sol.

 

Powered by WPeMatico

Noticias, algoritmos y reajustes necesarios

IMAGE: Greyjj - 123RFMi columna en El Español de esta semana se titula “Rediseñando algoritmos“, y habla de la manera en que compañías como Facebook o Google están intentando responder al problema de las noticias e informaciones ofensivas o factualmente incorrectas permite ver claramente el desarrollo de sus estrategias y la forma en que afrontan los problemas en el funcionamiento de sus algoritmos de relevancia.

En ambos casos hablamos de compañías con una necesidad evidente de plantearse soluciones: Facebook lleva ya varios meses, desde la llegada de Trump a la Casa Blanca, recibiendo acusaciones con respecto a su papel como difusor de noticias falsas durante la campaña que pudieron llegar a alterar significativamente el voto de muchos norteamericanos, mientras Google se ha encontrado también últimamente en el ojo del huracán por las noticias absurdas, conspiranoicas, partidistas o procedentes de fuentes carentes de toda credibilidad que recomienda en sus snippets o a través de Google Home.

¿Cómo rediseñar un algoritmo para evitar el ascenso en popularidad o la recomendación de noticias de ese tipo, respetando el hecho de que hay personas que quieren conscientemente consumirlas (el sensacionalismo y la información sesgada tienen indudablemente su público), pero evitando la viralización de información calificable como factualmente incorrecta?

Las posibilidades que se apuntan, por el momento, son cuatro, y en ambos casos pasan por introducir nuevos datos en la ecuación. ¿De dónde extraer esos nuevos datos que pretenden cualificar las noticias?

  1. Otras fuentes consideradas autorizadas, de páginas dedicadas a esa actividad cada vez considerada más importante, el fact-checking: sitios como Snopes, Politifact u otros que cumplan unos principios básicos de funcionamiento y que dedican personas cualificadas a comprobar las noticias y emiten un veredicto sobre las mismas. Este es el camino escogido por Facebook en una iniciativa ya puesta en marcha, que adjudica a las noticias la calificación de “disputada” en función del juicio emitido por este tipo de páginas, y por Google en Francia a través de  CrossCheck, una herramienta desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos. En esta categoría se encuadra, también en Francia y con carácter experimental, la introducción en los algoritmos de bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; o por Libération, en la que se compilan noticias positivamente identificadas como falsas.
  2. Opinión de los usuarios: el uso de sistemas de peer-rating y la evaluación de patrones derivados de su uso. Ante la difusión rápida de una noticia con carácter claramente partidista, sectario u ofensivo, cabe esperar no solo una viralización rápida entre aquellos que sintonizan con el tono o el contenido de la noticia, sino también un uso de herramientas de calificación por parte de aquellos que consideren esa noticia como factualmente incorrecta o inaceptable. El estudio de los patrones de generación de esas evaluaciones negativas de los usuarios puede ser, unida al análisis de esos usuarios, un elemento más que puede introducirse en el algoritmo.
  3. Patrones de difusión: el análisis de las curvas de difusión de las noticias en sí. Curvas muy rápidas, muy bruscas o que crecen fundamentalmente a expensas de personas identificadas como de una tendencias determinada, en grupos muy homogéneos o con patrones claramente identificables y atribuibles, deberían como mínimo ser objeto de algún tipo de supervisión.
  4. Uso de evaluadores independientes: disponer de un número significativo de personas en diversos países y con un nivel de diversidad elevado dedicadas a la evaluación de esas noticias. Es el caso de la iniciativa recién presentada por Google: diez mil personas contratadas específicamente para esa tarea, que no pueden influir directamente sobre el posicionamiento de las noticias en las páginas de resultados, pero sí generan datos cualificados sobre su nivel de credibilidad y etiquetan noticias como “upsetting – offensive” en función de un exhaustivo documento directriz de 160 páginas para que esa calificación sea utilizada como una variable de entrada adicional (un documento que supone un intento de definición del problema que en muchos de sus apartados debería ser objeto de estudio, crítica y enriquecimiento por parte de muchos periodistas, o incluso llegar a ser utilizado en las facultades de Periodismo).

Es conveniente recordar que en todos los casos hablamos de variables de entrada, no de salida: es decir, no se trata de que un patrón determinado, la opinión de un evaluador o la de una fuente secundaria “descalifiquen” o “eliminen” de manera automática una noticia, sino de que esa información es utilizada para alimentar un algoritmo de machine learning que trata, a lo largo del tiempo, de desarrollar patrones derivados de esa información.

¿Por qué es preciso rediseñar los algoritmos? Sencillamente, porque el entorno al que responden también cambia. Toda herramienta es susceptible de ser pervertida a partir del momento en que los incentivos para hacerlo son suficientes, y eso genera la necesidad de esas herramientas de protegerse contra ese tipo de usos. La mayor parte de los algoritmos que conocemos son, como tales, trabajos en curso que tratan de evolucionar con las características del entorno o con los patrones de uso que generan. El caso de las noticias falsas, como el de los sucesivos intentos de corrección del peso del sensacionalismo llevados a cabo anteriormente por Google, no son más que pruebas en ese sentido.

Como tal, una evolución muy necesaria. Pero además, desde un punto de vista de investigación, completamente fascinante.

 

Powered by WPeMatico

Machine learning y reconocimiento de vídeo: una frontera importante

Image recognition in video (Google)Google anuncia durante su conferencia Google’s Next Cloud que ha desarrollado la capacidad de buscar y localizar objetos en un vídeo, y que la ofrece ahora en forma de una API de Cloud Video Intelligence disponible para desarrolladores, como ha hecho con el resto de sus APIs de machine learning. Junto con el anuncio de la adquisición de la comunidad de desarrollo de competiciones de modelos predictivos y analíticos Kaggle, también por parte de Google, son sin duda las noticias sobre el tema más importantes de la semana.

El anuncio y demostración del reconocimiento de objetos en vídeo, llevado a cabo por la profesora de Stanford y directora de machine learning y AI de Google Cloud, Fei-Fei Li, podría parecer relativamente trivial considerando que ya hace cierto tiempo que nos hemos acostumbrado a buscar por palabras clave en una colección de fotos y obtener resultados que no provengan directamente del etiquetado manual, sino del reconocimiento de los objetos existentes en las imágenes, pero la complejidad implicada en construir esa misma función para vídeo es muy superior, y las posibilidades que abre, para la compañía que posee el mayor repositorios de vídeo del mundo, también lo son.

¿Qué ocurre cuando un algoritmo puede visualizar un vídeo, entenderlo y reconocer los objetos que hay en él? Hasta ahora, un vídeo era un contenedor prácticamente cerrado, en el que las únicas formas que teníamos de localizar algo era mediante su título o etiquetándolo con palabras clave. Desde hace muchos años, esa situación nos parece “lo normal”, lo que la tecnología da de sí, una limitación tan asumida, que eran pocas las ocasiones en las que pensábamos en la posibilidad de algo así. El vídeo es uno de los componentes de la web sujeto a un índice de crecimiento mayor, pero por el momento, la capacidad de hacerlo indexable resultaba bastante limitada. ¿Qué ocurre cuando los algoritmos de machine learning son capaces, por un lado, de reconocer las palabras pronunciadas en un vídeo, pasarlas a texto y hacer que podamos buscar en él, y además, otros algoritmos se encargan de entender el contenido y permitir que podamos buscar imágenes? Pedir a un buscador que nos localice menciones o apariciones de algo – un objeto, una marca, un logotipo, una persona, etc. – en un repositorio de vídeo, y obtener una página de resultados en la que se nos indiquen los vídeos que lo contienen, y el lugar del vídeo en el que se encuentra… ¿Cuántas nuevas posibilidades y avenidas para la innovación se pueden abrir gracias a algo así?

Para Google, como para otros competidores en el entorno cloud computing, la forma de competir no es simplemente tratando de ofrecer más prestaciones por menos precio – lo que supondría especializarse en la clásica estrategia de liderazgo en costes – sino ser capaz de ofrecer prestaciones más sofisticadas para sus usuarios. La oferta de una función como esta hace que, de manera automática, la nube de Google, que hasta el momento se percibe como por detrás de otros competidores como Amazon o Microsoft, se convierta en una opción más interesante para aquellos competidores en los que el vídeo juega un papel fundamental, que ahora pueden plantearse mucho más servicios asociados a la puesta en valor de sus repositorios. Pero además, posibilita también el desarrollo de nuevos servicios planteados por otros competidores, que podrían permitir la adopción de modelos de plataforma para aquellos que consideran el vídeo como el centro de su negocio. Hablamos de dinamizar y convertir en indexables muchísimos millones de horas de vídeo, con contenidos de todo tipo, que se abren a la posibilidad de ser tratados de maneras muchísimo más ricas.

Ahora, una máquina puede ver un vídeo de un tigre, entender que es un tigre lo que hay en el vídeo, y encontrarte vídeos en los que aparezcan tigres. Todo ello, sin que nadie haya etiquetado o titulado ese vídeo como conteniendo un tigre. Lo mejor de estudiar el machine learning y la inteligencia artificial es que nunca dejas de sorprenderte.

 

Powered by WPeMatico

Facebook se destaca frente a Google en la lucha contra las noticias falsas

Facebook disputed news

Facebook pone en marcha su mecanismo para etiquetar las noticias disputadas como tales, a partir de la comparación de repositorios de fact checking como Snopes, PolitiFact u otros que acepten una serie de principios de funcionamiento. El movimiento de Facebook coincide precisamente con el momento en que Google empieza a recibir fuertes críticas debido a los snippets con los que responde a determinadas búsquedas, en los que aparentemente no llevan a cabo ni el más mínimo y elemental proceso de comprobación, y recurre a fuentes de credibilidad nula o a sitios con visiones intensamente partidistas, tratándolos como fuentes de información supuestamente fiable y considerándolos como respuestas válidas.

El mecanismo empleado por Facebook parece claro: recurrir a una serie de fuentes contrastadas para una comparación de hechos y un etiquetado en consecuencia. En su contra, la posibilidad de que el mecanismo no sea suficientemente rápido, y que para el momento en que los equipos de fact checking hayan podido llevar a cabo sus comprobaciones con rigor, la difusión ya se haya llevado a cabo y el daño, en gran medida, ya esté hecho. A su favor, la posibilidad de complementar esos mecanismos con evaluaciones de los usuarios, la idea de emplear ese proceso para designar la calidad y fiabilidad de los sitios en función del número de veces que las noticias que publican son disputadas (lo que se convertiría, eventualmente, en un desincentivo a su publicación), y la progresiva mejora de los algoritmos de machine learning que puedan aprender a etiquetar esas noticias no tanto en términos de la noticia en sí, sino de sus patrones de difusión, siguiendo mecanismos similares a los empleados en la detección de patrones de fraude.

Fake Obama coupEn el caso de Google, el problema fundamental parece partir precisamente de la no aplicación de ningún tipo de inteligencia: los snippets que el buscador destaca en respuesta a ciertas búsquedas parecen provenir directamente de algún tipo de ranking de popularidad, y en consecuencia, tender a destacar precisamente sitios de carácter sensacionalista o intensamente polarizado. Los ejemplos no dejan lugar a dudas: que el buscador destaque de manera prominente teorías conspiranoicas ante búsquedas como “planea Obama un golpe de estado”, o destaque respuestas planteadas como broma por Monty Python como si fueran una verdadera explicación de por qué razón los coches de bomberos son rojos es algo que deja a la compañía en muy mal lugar, sobre todo después de que su director general, Sundar Pichai, destacase en repetidas ocasiones que “su inteligencia artificial estaba por encima de la inteligencia artificial de sus competidores“.

En el caso de Google, el problema se ha acentuado con el lanzamiento de su asistente conversacional, Google Home: lógicamente, el planteamiento de un asistente conversacional no puede ser el de leer uno detrás de otros los diez resultados de una página de resultados o SERP (Search Engine Results Page), sino que tiene que escoger una de ellas para devolverla mediante su interfaz de voz. En este caso, dado que el aparato escoge sistemáticamente la respuesta destacada por Google en su snippet y el mecanismo por el que se obtiene ese snippet carece de la inteligencia suficiente para discernir cuándo un resultado proviene de un sitio fiable o de una página absurdamente tendenciosa, el resultado es, en muchas ocasiones, que formulas una pregunta a tu Google Home y este te responde con la conspiranoia o la barbaridad de turno, comprometiendo completamente la credibilidad de la compañía y de su tecnología – más aún teniendo en cuenta que los usuarios de Google Home pueden ser considerados dentro del segmento de los denominados early adopters y, por tanto, muy susceptibles de identificar (y de ofenderse) con este tipo de respuestas.

Que Google, compañía con dieciocho años de experiencia en la búsqueda, caiga en un error tan de base como que sus resultados no estén a la altura como para ser leídos por una máquina y suministrados como respuesta única a una pregunta, debería llevarnos a pensar en la dificultad intrínseca de este tipo de cuestiones, y en el problema de credibilidad que puede llegar a representar si no se corrige de manera rápida y eficiente, mediante un mecanismo de reputación de las publicaciones que pueden ser incluidas en los snippets que vaya más allá de la simple supervisión manual caso por caso, a medida que van apareciendo en las noticias. La inteligencia artificial depende de la calidad de los datos con los que la alimentemos: si alimentamos a Watson con el Urban Dictionary, la consecuencia es que Watson empieza a decir tacos como si no hubiera un mañana. Si permites que tus resultados destacados se contaminen con páginas sensacionalistas o tendenciosas de ínfima calidad, tus respuestas no valdrán nada.

 

Powered by WPeMatico

Arreglando la naturaleza humana

IMAGE: Ayelet Keshet - 123RFMi columna de El Español de hoy se titula “Algoritmos y mala leche“, y está dedicada a Perspective, el algoritmo anunciado por Jigsawla incubadora de ideas de Alphabet dedicada a la aplicación de soluciones tecnológicas para luchar contra la censura, los ciberataques o el extremismo, capaz de detectar, en un hilo de comentarios en una página, cuáles contienen insultos, descalificaciones, ataques personales o, de un modo general, lenguaje tóxico

Hablamos de un algoritmo de machine learning: comentarios recogidos de hilos de publicaciones como The Economist, The Guardian, The New York Times o Wikipedia (la experiencia con The New York Times aparece recogida en este artículo) fueron evaluados por una serie de personas mediante encuestas, y clasificados en una escala que iba desde “muy tóxico” hasta “muy saludable”, con la toxicidad definida como “comentario maleducado, no respetuoso o no razonable que puede decidirte a abandonar una conversación”. Lo que el algoritmo hace es tratar de reconocer esos comentarios, evaluarlos, y buscar casos similares para adscribirles una etiqueta similar en forma de porcentaje de probabilidad.

A partir de ahí, la herramienta – por el momento en inglés – se pone a disposición de quien la quiera utilizar para continuar con el entrenamiento del algoritmo. El uso que el propietario de la página desee hacer de ella es completamente abierto, desde simplemente etiquetar comentarios en función de su supuesta toxicidad para ayudar a la moderación, a directamente conectarlo con sistemas que eliminen o impidan enviar determinados comentarios en función de su contenido, y siempre con la posibilidad de retroalimentar el aprendizaje.

El algoritmo intenta solucionar uno de los problemas más antiguos vinculados a la participación en la web: el hecho de que las personas y los sistemas de moderación no son escalables. Si en esta simple página que suele publicar únicamente un artículo al día me ha costado en algunas temporadas muchísimo tiempo y esfuerzo moderar los comentarios para tratar de mantener una conversación saludable y productiva, imaginar la tarea de un periódico que pueda publicar cien veces más artículos y dedicados a temas intrínsecamente polémicos por su naturaleza como el deporte o la política es algo que excede las posibilidades de muchos medios, y que ha llevado a muchos editores a tomar decisiones que van desde el no incluir comentarios, hasta abandonar de manera prácticamente total los hilos a su suerte y permitir que se conviertan en auténticos estercoleros. El problema es importante, porque anula una de las que deberían ser las ventajas más interesantes de la web: la posibilidad de participar en foros susceptibles de enriquecer nuestra opinión o de ampliar nuestros puntos de vista.

Es pronto para saber si Perspective funcionará satisfactoriamente, o si será pasto de usuarios malintencionados que se dediquen a intentar envenenar su funcionamiento añadiendo información falsa. Por el momento, está disponible en la página para jugar a introducirle textos en inglés – funciona con algunos insultos en español, pero simplemente derivado de su dinámica de aprendizaje y de su uso relativamente popular en inglés – y ver cómo los evalúa, y puede ya ser añadido como API a páginas que quieran utilizarlo para hacer pruebas. En cualquier caso, tanto si funciona como si no, la idea de poner a un algoritmo a solucionar un problema de la naturaleza humana que las personas no hemos sido capaces de resolver con soluciones mínimamente escalables no deja de ser una paradoja y todo un elemento para la reflexión…

 

Powered by WPeMatico

Con Francia en el horizonte…

Elections pre?sidentielles 2017 FranceCon las elecciones presidenciales francesas a la vuelta de la esquina, y dados los resultados de las reciente cita electoral norteamericana, todo apunta a que el país vecino se va a convertir en un auténtico laboratorio tecnológico en el que poner a prueba la influencia de factores como la divulgación de noticias falsas y su impacto en el proceso electoral.

Facebook acaba de anunciar el lanzamiento de un filtro para noticias falsas específico para Francia, al tiempo que se une a Google y a ocho grandes medios franceses para intentar poner en marcha herramientas de verificación de noticias. La idea es que herramientas como CrossCheck, desarrollada por Google News Lab junto con First Draft dentro de la iniciativa de trabajo con medios europeos, puedan ser utilizadas en conjunción con bases de datos como las desarrolladas por Le Monde, seiscientas páginas web directamente identificadas como no fiables; por Libération, en la que se compilan noticias positivamente identificadas como falsas; o por otros medios, con el fin de combinar esa información con reportes de usuarios y otro tipo de feedback, y reducir la difusión de esas noticias en los algoritmos de redes sociales y buscadores. Según algunos de los medios implicados, fue precisamente ese compromiso de las empresas online como Facebook para reducir la circulación de noticias falsas en sus algoritmos de recomendación lo que les animó a participar en la iniciativa.

En los Estados Unidos, Facebook ha solicitado la colaboración de terceros como Snopes, PolitiFact o la herramienta de fact-checking de The Washington Post para, combinado con el feedback de los usuarios, tratar de limitar la difusión de ese tipo de noticias falsas y etiquetarlas como tales.

El problema de las noticias falsas en los entornos en red es, por un lado, la ausencia de referencias válidas para juzgar su credibilidad. Con el valor de las cabeceras periodísticas en plena crisis, muchos medios online han pasado a ocupar un lugar creciente en la dieta informativa de los ciudadanos, pero junto con medios que lo hacen muy bien y desarrollan un periodismo de nivel, surgen otros que se aprovechan de las escasas barreras de entrada del canal online para intoxicar, inventar o difundir noticias falsas vinculadas a agendas políticas concretas, con el agravante, además, de contar con incentivos generados por la propia difusión de esas noticias en redes sociales y buscadores. La exclusión de las páginas identificadas como de noticias falsas de los mecanismos de publicidad de Google y Facebook es un primer paso importante porque reduce el incentivo económico de generarlas, pero es tan solo un primer paso de muchos más que hay que dar. El estudio de los patrones d difusión de las noticias falsas, por ejemplo, es otra herramienta importante de cara a prevenir su circulación, y presumiblemente fue una de las razones principales que llevó a Facebook a adquirir CrowdTangle, una herramienta de analítica social, el pasado noviembre.

Por otro lado, las redes sociales juegan un papel de “cámara de eco” en las que los ciudadanos, llevados por los mecanismos sociales que les llevan a reunirse preferentemente con otras personas que piensan como ellos, sienten que todo su entorno refuerza sus creencias y las priva de los habituales frenos sociales, generando una radicalización que tiende a favorecer a opciones que, sin esos mecanismos, serían meramente marginales. El problema, lógicamente, es cómo frenar las noticias falsas sin convertirse en una especie de “árbitro de la verdad” que decide lo que es cierto y lo que es falso, una cuestión que ya le costó a Facebook múltiples críticas en ese sentido y una reunión de urgencia con políticos conservadores cuando algunos de sus editores afirmaron aplicar criterios con sesgo político a la hora de decidir qué noticias se convertían en trending y cuales no. Según muchos, fue precisamente el miedo a que se relacionase a Facebook con una red hostil a las ideas conservadoras lo que hizo que la compañía no hiciese suficiente a la hora de detener la difusión de noticias falsas en las pasadas elecciones norteamericanas.

¿Son realmente las redes sociales total o parcialmente responsables del resultado de las últimas elecciones norteamericanas? ¿Son los lectores que solo leen lo que quieren leer, lo que les hace sentir bien o lo que coincide con su visión del mundo? ¿Un efecto combinado de ambas cosas? Mientras algunas noticias son claramente falsas desde un punto de vista puramente factual, en muchos otros casos, los matices no son tan sencillos, además de mezclarse con recursos como la sátira o el humor que no deben ser, en principio, objeto de censura, pero que dificultan la tarea de identificación. Si los mecanismos basados en la actuación de editores humanos tienen el problema de la arbitrariedad, y los desarrollados a partir de algoritmos de inteligencia artificial son complejos y con posibilidades de fallar, la alternativa parece ser combinar varios mecanismos a modo de indicadores y optar por metodologías mixtas en las que se añadan al feedback y al etiquetado por los usuarios, y a los patrones de difusión que pongan bajo sospecha todo aquello que experimente una difusión especialmente rápida. Para nada un problema trivial. Y todo indica que las próximas elecciones francesas se disponen a ser, en muchos sentidos, un escenario para muchas pruebas relacionadas con este tema.

 

Powered by WPeMatico

Noticias falsas: aún queda mucho por hacer

IMAGE: cbies - 123RFLa lucha contra las noticias falsas, considerada ya una cuestión estratégica y fundamental por compañías como Google o Facebook, continúa con recientes anuncios como la eliminación de más de 200 publicaciones de su sistema de publicidad por parte del primero, o los cambios en el algoritmo de los trending topics por el segundo.

Mientras Google se afana en detectar publicaciones que habitualmente crean noticias falsas o bulos y cortarles las fuentes de financiación, un trabajo en el que ambas compañías llevan inmersos ya desde el pasado noviembre, Facebook, en pleno ojo del huracán por su supuesto papel decisivo en las últimas elecciones presidenciales, trata además de redefinir sus trending topics añadiéndoles la fuente, mejorando el sistema de determinación de tendencias, y homogeneizándolos por regiones en lugar de personalizarlos como hacía hasta el momento. Las medidas forman parte de una batería de ideas que la compañía evalúa tras facilitar el acceso de expertos a sus datos para que desarrollen sistemas de control – algunos ya objeto de patente – y recibir ideas de estudiantes en los hackathones organizados en universidades.

El problema es indudablemente grave: según un reciente estudio de Stanford, la gran mayoría de los estudiantes no saben discernir cuando una noticia es falsa o esponsorizada: la absurda idea de que eran “nativos digitales” y que tenían de alguna manera internet metido en su pool genético ha llevado a muchos padres y educadores a una dejación de responsabilidad en este tipo de cuestiones, convirtiéndolos en una generación que carece de referencias válidas y de sentido crítico. La tardanza de Facebook en hacer frente a este problema, debida fundamentalmente al miedo a que se relacionase con un sesgo en contra de ideologías conservadoras, llevó a que el ahora presidente Donald Trump pusiese en marcha una auténtica maquinaria de fabricación y dispersión de noticias falsas a varios de cuyos actores principales ha recompensado después con puestos en su gabinete, en una maniobra que según muchos observadores, pudo condicionar en gran medida el resultado de las elecciones y que, en caso de no tomar medidas, podría empeorar en el futuro tras el acceso a las urnas de una generación todavía más ingenua y confiada que las anteriores.

Los creadores de noticias falsas, por otro lado, también utilizan la tecnología para mejorar su producto: una aplicación basada en inteligencia artificial es capaz de recrear gestos y vocalizaciones sobre el vídeo de una persona, generando falsificaciones capaces de poner cualquier cosa en boca de cualquier personaje con resultados entre aterradoramente buenos o sencillamente mediocres, pero indudablemente capaces de llevar a engaño a muchos usuarios. Mientras compañías como Apple o Snapchat afirman no tener problemas con las noticias falsas debido a un control mucho mayor sobre las publicaciones que admiten en su red, ecosistemas más abiertos como Google o Facebook se ven obligados a trabajar con una amplia gama de señales que incluyen desde los patrones de popularización de las noticias hasta los reportes de los propios usuarios, en un esfuerzo por aislar ese tipo de noticias y castigar a sus autores mientras tratan de no poner en riesgo la pluralidad o de cerrar el paso a quienes cuestionen el pensamiento mayoritario.

El problema es indudablemente complejo. Si tras la primera campaña de Barack Obama vimos una proliferación de supuestos expertos en social media afirmando que podían ayudar a cualquier político a mejorar sus resultados, tras la campaña de Trump nos arriesgamos a ver aprendices de Steve Bannon, editor del panfleto ultraderechista Breitbart News, aspirando a puestos de asesoría estratégica en gabinetes de medio mundo. Nada que pueda o deba ser tomado a la ligera… y ahora, menos que nunca. Estamos indudablemente ante uno de los problemas más preocupantes y complejos de nuestros tiempos, y todavía queda mucho por hacer.

 

Powered by WPeMatico

Disminuyendo barreras de entrada a la inteligencia artificial

Raspberry Pi 3Google anuncia sus intenciones de ofrecer herramientas de desarrollo de inteligencia artificial para la plataforma Raspberry Pi, el pequeño ordenador de treinta y tres euros creado por una institución sin ánimo de lucro británica, que ha logrado entre otras cosas popularizar el acceso a la microelectrónica vendiendo más de diez millones de unidades a lo largo de sus diferentes versiones (cuando originalmente pensaban que iban a vender unas mil), y promover el cambio en el bachillerato británico para incluir las Ciencias de la Computación.

Con el fin de delimitar y definir su oferta, Google ha lanzado una encuesta para usuarios de Raspberry Pi en la que pueden definir su nivel de experiencia, sus conocimientos de distintos lenguajes y plataformas, y sus intereses. Esto puede permitir a Google no solo orientar adecuadamente las opciones que puede ofrecer para esta comunidad, sino también una radiografía de su nivel general y de la popularidad de las diversas opciones a su alcance. Las preguntas en la encuesta se refieren, en general, al tipo de proyectos que los usuarios han hecho hasta el momento, con qué lenguajes de programación o sobre qué plataformas de hardware, de software o de cloud computing. A partir de ahí, pregunta sobre los futuros intereses, y sobre las posibilidades que creen que ofrecería el disponer, por ejemplo, de herramientas de procesamiento de lenguaje natural, de reconocimiento facial o de escritura, etc.

¿Qué ocurre cuando herramientas de inteligencia artificial relativamente avanzadas y que permiten llevar a cabo proyectos que hace muy poco tiempo habríamos considerado de cierto nivel de sofisticación, se convierten en una posibilidad en manos de una comunidad de makers aficionada no solo a retarse a sí mismos para crear proyectos, sino además, a compartirlos posteriormente en forma de instructables y vídeos sencillos que permiten repetirlos con instrucciones paso a paso? Que Google ofrezca a la comunidad de usuarios de Raspberry Pi la posibilidad de definir una oferta de productos de inteligencia artificial puede generar un movimiento de popularización y acercamiento de este tipo de herramientas a una comunidad hiperactiva, un movimiento que puede dar lugar a posibilidades muy interesantes tanto a nivel general como en estamentos académicos. No es la primera vez que Google se acerca a la Raspberry Pi Foundation para ofrecer donaciones y ayudas: para la fundación, siempre interesada en extender el ámbito de su actuación y en divulgar los proyectos que toman como base su plataforma, la colaboración con Google abre una interesantísima gama de posibilidades extraordinariamente coherente con su misión de popularización de la tecnología, un auténtico cambio de dimensión que le permite añadir un interesantísimo campo de actividad a su comunidad.

¿Cuáles son los beneficios de hacer que un cierto segmento de la población perciba algunos aspectos de la inteligencia artificial como algo accesible, asequible y cercano? ¿Qué puede hacer la comunidad maker con herramientas de inteligencia artificial? Sin duda, nos esperan cosas muy interesantes…

 

Powered by WPeMatico

Probando AMP

AMPSi haces clic en este enlace, estarás viendo la primera página de esta publicación generada utilizando AMP, Accelerated Mobile Pages de Google, presentadas como proyecto de código abierto en octubre de 2015, lanzadas en febrero de 2016, y que no había tenido oportunidad de probar hasta ahora.

La página, que mi amigo Fernando Serer, de Blogestudio, propuso como ejercicio práctico en un taller que impartió ayer sábado en Valencia, valida bien y carga en un instante. En realidad, podréis obtener la versión AMP de cualquiera de mis páginas con que simplemente añadáis /amp al final de cualquiera de mis URL. Con ello obtendréis una versión radicalmente minimalista de la página, que se carga de manera prácticamente instantánea, y que da acceso a texto, enlaces, botones de compartir en la línea inferior, y un pequeño menú de información en la esquina superior derecha. Para desarrollar la versión AMP en mi página, creada con WordPress, se han utilizado dos plugins, el desarrollado por Automattic, y este otro, AMP for WP.

Como en el caso de Apple News o de Facebook Instant Articles, AMP es la alternativa planteada por Google para tratar de proporcionar una experiencia de navegación más rápida a cambio de simplificar dramáticamente el formato de las páginas. Los resultados de casi un año de funcionamiento son sumamente concluyentes, con un nivel de adopción que parece evolucionar de manera muy rápida. La clave está, lógicamente, en las ventajas que Google ofrece a nivel de indexación en su buscador y de herramientas como Google News a las páginas que tienen tiempos de carga más rápidos.

El proyecto AMP no está exento de ciertas críticas, entre otras la de tener una orientación fundamentalmente pensada para optimizar el negocio publicitario de la compañía. Los comentarios por parte de grandes editores web han sido mixtos, con algunos afirmando que la tracción que AMP está obteniendo es, en realidad, una coacción basada en los problemas que aquellos que no lo adopten pueden tener para mantener su visibilidad. Por parte de los usuarios, muchos se han preguntado qué hacían esas páginas con un pequeño logo de un rayo en sus páginas de resultados de búsqueda, y cómo desactivar la opción para poder acceder a la página en su formato original no-AMP, lo que ha llevado a Google a publicar soluciones para este tema y a tratar de simplificar la forma de hacerlo. En mi caso, una página sin publicidad con un acceso de alrededor del 45% desde dispositivos móviles, en la que su única finalidad es que pueda ser leída fácil y cómodamente desde cuantos más sitios posibles, creo que proporcionar el formato AMP como una posibilidad puede tener bastante sentido, pero quedo a la espera de vuestros comentarios al respecto.

 

Powered by WPeMatico

Analizando Facebook como compañía de medios

Facebook TVA lo largo de sus doce años de historia, la forma en la que Facebook se ha definido a sí misma siempre ha sido la misma: una compañía de tecnología. Esa definición ha condicionado claramente su estrategia, que se ha centrado en convertirse en una potencia en términos de desarrollo, una tarea en la que su propio fundador sigue implicándose habitualmente. La mayoría de las adquisiciones de Facebook, de hecho, reflejan ese patrón: equipos de buenos desarrolladores, a los que se busca retener a toda costa y potenciar con los recursos de su nuevo hogar, integrándolos en equipos potentes y dotándolos de más medios. La evolución post-adquisición, uno de los elementos más importantes en el éxito de una compañía que utiliza esa herramienta con notable frecuencia, parece reflejarlo así.

Esta idea, la de ser una compañía tecnológica, está fuertemente imbricada en el ADN de Facebook. Sin embargo, todo indica que cada día más, comienza a consolidarse otra forma de entender la compañía, en una visión no competitiva con la anterior, pero sí fuertemente complementaria: la de ser una compañía de medios. Diferente a las tradicionales, sí, pero dedicada a una labor de plataforma cuya finalidad sería la de fomentar la producción de contenido.

Entender la compañía como un canal implica, en primer lugar, tratar de resolver lo que muchos consideran su mayor reto actual: la proliferación y difusión de noticias falsas. Frente a la idea de “yo soy solo una plataforma, y lo que se mueva a través de ella no es mi problema”, parece extenderse otra visión que llevaría a la compañía a tomar responsabilidad, a educar a los periodistas, a abrir sus datos a investigadores, y a tratar de desarrollar sistemas de fact-checking que, dentro de unos límites, permitan a los usuarios saber a qué atenerse cuando acceden a contenidos en su red.

Esta idea podría tener su continuación en el intento de fomentar el desarrollo de otro tipo de contenidos en Facebook: en lugar de poner el foco en el vídeo en vivo, pagando a personajes y celebridades de diversos tipos para que hagan livestreaming desde los eventos a los que acuden, en lo que llegó a calificarse de auténtica obsesión para el fundador, la compañía parece ahora tender a eliminar estos incentivos económicos para tratar de fomentar, aparentemente, contenidos de otro tipo, generalmente más largos y de mayor calidad por los que la compañía sí tendría interés en pagar.

Un posicionamiento de este tipo acercaría a Facebook más a la idea de una productora, de un canal de televisión que podría financiar parcialmente el desarrollo de contenidos, y que se interesaría además por ofrecerles esquemas publicitarios adicionales, como los nuevos anuncios de vídeo en Instagram Stories o los llamados mid-roll, anuncios que interrumpirían vídeos que el usuario está viendo, siguiendo el estilo habitual en la televisión tradicional. En un esquema de ese tipo, un productor con una idea para un formato audiovisual podría plantearse Facebook como actualmente se plantea un canal de televisión estándar, con unos objetivos de audiencia determinados, y la posibilidad además de actuar de manera mucho más controlada sobre los posibles destinatarios: mientras en la televisión convencional solo se dispone de herramientas como el horario de emisión o la emisión de auto-promos para tratar de posicionarse ante unos usuarios con determinados patrones sociodemográficos, Facebook ofrecería una gama de herramientas de segmentación infinitamente más precisas y potentes, suplementadas además con mecanismos sociales.

Esto podría plantear un conflicto de intereses: ¿tendría el contenido producido o parcialmente financiado por Facebook, en el que la compañía mantiene un interés para incrementar su audiencia, unas condiciones distintas a las que obtendría, por ejemplo, el contenido generado por una televisión o un periódico, a la hora de acceder a mecanismos publicitarios? El dilema es muy similar al existente en Google, cuando comenzó a editorializar los resultados de búsqueda y a introducir elementos de desarrollo propio posicionados en lugares privilegiados de la página, que competían con otros actores que buscaban un posicionamiento similar, que veían limitada su visibilidad, y que generó todo un caso anti-monopolio en la Unión Europea.

¿Estamos dirigiéndonos a un escenario similar, con una Facebook centrada en fomentar el desarrollo de contenido y compitiendo con otros actores tradicionales en ese sentido? Hace ya tiempo que tiendo a hablar de Facebook como el mayor medio de comunicación del mundo, el que tiene llegada a un mayor número de personas y el que, de hecho, se ha convertido en más estratégico en estrategias comerciales o incluso políticas. Ahora, podría ser que fuese la propia Facebook la que se plantease que no tiene forma de escapar a ese papel, y que comenzase a desarrollarlo como tal, con todo lo que ello podría conllevar.

 

Powered by WPeMatico