Category Archives: hate speech

Auto Added by WPeMatico

Ideologías caducas y exclusión

IMAGE: Mary Valery - 123RFMi columna en El Español de esta semana se titula “Problemas de otros tiempos” (pdf), y vuelve al tema tratado hace dos días, la exclusión de los supremacistas blancos y neonazis de la red, en virtud de una serie de medidas acometidas por compañías referentes en ese entorno. Si hace dos días contábamos cómo el panfleto neonazi “The Daily Stormer” era expulsado de su dominio por GoDaddy y, posteriormente, por Google, y se veía obligada a refugiarse en un dominio ruso, dos días más tarde podemos comprobar cómo el dominio ruso ha sido igualmente cancelado, y cómo Cloudflare, un proveedor de servicios de DNS, de protección y de distribución de contenidos fundamental en la red, retiraba asimismo sus servicios a la página neonazi.

Es precisamente el caso de Cloudflare, magistralmente explicado por su CEO, Matthew Prince, en versión corta y de circulación supuestamente interna, o en versión más larga y depurada, el que merece una mayor reflexión. Indudablemente, la página en cuestión tiene ahora muy complicado continuar su actividad en la red: a todos los efectos, ha sido expulsada de la red. Las palabras de Kevin Prince no dejan lugar a la ambigüedad: tras la estupidez recalcitrante de los creadores de la página, que se dedicaron a atribuir que Cloudflare no les hubiese echado a unas supuestas simpatías de la compañía por la ideología neonazi, afirma que 

“I woke up in a bad mood and decided someone shouldn’t be allowed on the Internet. No one should have that power.” 

(Me desperté de mal humor y decidí que la presencia de alguien no debería estar permitida en Internet. Nadie debería tener ese poder.)

En efecto, la reflexión del fundador y CEO de Cloudflare tiene mucho de sentido común: debido a un proceso de concentración empresarial, cada vez son menos las compañías implicadas en que alguien pueda tener voz en la red. Pero por muy repugnante que nos pueda resultar una página o una ideología determinada, los que deciden si tiene cabida o no en la red no deberían ser los responsables de una serie de compañías privadas: esa decisión debería corresponder a un juez, ejercitando el debido proceso penal.

El proceso de exclusión de las ideologías neonazis y supremacistas que estamos viviendo en los últimos días no se limita a una sola página. Si de alguna manera simpatizas con esa ideología, verás cómo los grupos que interpretan música con esa tendencia desaparecen de Spotify, los enlaces a ese tipo de contenidos no tienen cabida en Facebook, no puedes hablar del tema en foros de Reddit ni en algunas plataformas de mensajería instantánea, no puedes escribir en WordPress, las campañas de recaudación de fondos para esa temática no son permitidas en ninguna plataforma de crowdfunding ni tienen acceso a medios de pago como Apple Pay o PayPal, e incluso se impide tu acceso a herramientas para buscar pareja como OKCupid.

De acuerdo: las ideologías supremacistas, neonazis y que promueven el odio o la discriminación son AS-QUE-RO-SAS, y además, absurdas. Son tan propias de otros tiempos como el yihadismo, que corresponde en realidad a una idea de cruzada religiosa propia de hace cinco o diez siglos, pero que aún provoca barbaridades incomprensibles como la de anoche en Barcelona. Totalmente de acuerdo: las ideologías que proclaman que una raza es superior a otra, que una religión debe eliminar a los infieles o que un sexo está más preparado que otro deberían ser declaradas absolutamente inaceptables, parte de problemas del pasado basados en la ignorancia más supina y más absurda, una discusión completamente superada. Algunos imbéciles devenidos en presidentes pueden, desgraciadamente, hacer que los problemas de hace décadas vuelvan a resucitar y se conviertan de nuevo en parte del escenario, como si se tratase de ideologías en discusión, cuando la realidad es que hace muchos años que fueron adecuadamente excluidas del panorama político. Pero independientemente de que nos manifestemos públicamente en contra de esas ideologías caducas, las medidas de exclusión deberían provenir no de decisiones individuales de compañías privadas, sino de un juez. En muchos países de la Europa central hace décadas que determinados contenidos están radicalmente prohibidos, y eso responde a un consenso social fruto, en gran medida, de experiencias vividas anteriormente. En otros países, como los Estados Unidos, se asegura que el gobierno nunca podrá censurar tu libertad de pensamiento, de expresión o de publicación, pero no impiden que sea una compañía privada o actores de otro tipo los que eliminen, de facto, la posibilidad de alguien de expresarse en un medio determinado.

Tomemos la decisión con una idea de absoluta tolerancia al pensamiento – que no a los hechos – o con la conocida paradoja de la tolerancia bien presente, deberíamos tener en cuenta que hablamos de los elementos que van a constituir la sociedad en la que viviremos en el futuro, en la que vivirán nuestros hijos. ¿Deberíamos aspirar a impedir, prohibir o eliminar de la sociedad toda aquella ideología que de alguna manera no aceptase determinadas reglas? ¿Qué hacer, por ejemplo, en un caso como el de AfD en Alemania, que no se definen como abiertamente neonazis o supremacistas para evitar un conflicto legal, pero abiertamente defienden en sus propuestas este tipo de ideologías sin llamarlas por su nombre? Que una ideología provenga de movimientos supuestamente desechados hace diez siglos años o hace quince décadas no implica que no haya imbéciles capaces de hacer que vuelvan a resurgir, como estamos desgraciadamente comprobando. Habra que tomar decisiones sobre el lugar que esas ideologías caducas pueden o deben tener en la sociedad y en la red.

 

 

 

This post is also available in English in my Medium page, “Just because your idea is outdated or offensive, doesn’t mean you should be silenced… or does it?” 

 

Powered by WPeMatico

Discurso del odio y libertad de expresión

IMAGE: ?ukasz Stefa?ski - 123RFTras los trágicos eventos de Charlottesville, la actitud de algunas compañías en el entorno de la tecnología con respecto a la tolerancia frente al discurso del odio parece estar empezando a cambiar. En un breve espacio de tiempo, el registrador de dominios GoDaddy ha rescindido el registro de la página neo-nazi “The Daily Stormer“, que de manera inmediata la ha desplazado a Google Sites, para encontrarse con una nueva negativa de Google a hospedarla alegando la violación de sus términos de servicio, y con la cancelación del nuevo dominio. Tras esa segunda expulsión, la página ha decidido trasladar su domino a la dark web, con la promesa de volver más adelante.

Al tiempo, Facebook ha decidido eliminar todos los enlaces a un artículo publicado en la misma página en el que insultaban a la víctima del atropello de Charlottesville, Reddit ha cerrado foros en los que se hacía apología del odio y del nazismo, el sistema de mensajería instantánea para gamers Discord, aparentemente muy utilizado por este tipo de comunidades radicales, ha cerrado servidores y expulsado a usuarios que lo utilizaban para conversaciones para promover la ideología nazi, WordPress ha cerrado la página de un grupo neonazi vinculado con el asesino, y sitios de crowdfunding como GoFundMe o Kickstarter han cancelado campañas que pretendían recoger fondos para la defensa del autor del brutal atropello.

Las acciones de las compañías tecnológicas sugieren un importante cambio de actitud frente al discurso del odio y las ideologías radicales, con la aparente idea de eliminar este tipo de contenidos de las redes. Frente a este discurso, encontramos la actitud de plataformas como la American Civil Liberties Union (ACLU), que al tiempo que condenaba las demostraciones y la violencia de los supremacistas blancos en Charlottesville, dejaba claro también en un tweet y en una carta abierta el derecho de los radicales a manifestarse en virtud de la Primera Enmienda de la Constitución, en una actitud que llevó a la asociación a recibir fuertes críticas y acusaciones de ambivalencia.

La actitud de la ACLU, de Foreign Policy o de páginas como Techdirt, que afirman la necesidad de proteger la libertad de expresión incluso aunque lo que esté siendo expresado nos repugne, hacen referencia a los problemas que puede traer una actitud maximalista y de intento de eliminación del discurso del odio: en primer lugar, que esa eliminación conlleva que ese discurso pase a tener lugar en foros ocultos o más discretos como la dark web, y se radicalice más aún mientras una parte de la sociedad piensa falsamente que ha sido eliminado. Y en segundo, que la arbitrariedad al designar qué discursos deben ser excluidos termine generando ambigüedades o situaciones en las que lamentemos haber concedido esas “excepciones” a la Primera Enmienda, dando lugar a problemas más importantes que los que se pretendía originalmente resolver. Una posición de este tipo viene a solicitar que se refuercen los mecanismos con los que la sociedad ya cuenta para impedir las acciones de los radicales, pero sin impedir su libertad de expresión, marcando una separación entre discurso y acciones.

En otro plano se sitúa la idea de que, aunque exista libertad de expresión y una persona pueda decir lo que quiera aunque resulte molesto en virtud de la Primera Enmienda constitucional, eso no implica que lo que diga no vaya a tener consecuencias, y esa persona, por haber dicho algo posiblemente repugnante o que genere animadversión, no vaya a sufrir consecuencias como, por ejemplo, perder su trabajo, ser expulsado de una universidad o ser objeto de otro tipo de represalias, como discutíamos hace pocos días o como magistralmente plasma XKCD en una de sus viñetas.

Frente a estas actitudes que claman por defender el ejercicio de la libertad de expresión a toda costa, surgen otras actitudes que invocan al filósofo Karl Popper y su paradoja de la tolerancia, que afirma que si una sociedad es tolerante sin límites, su habilidad para ser tolerante será finalmente confiscada o destruida por los intolerantes, lo que implica que defender la tolerancia exija no tolerar lo intolerante.

¿Debe toda expresión estar permitida en la sociedad o en la red? Después de todo, un numero creciente de gobiernos persiguen y cierran los foros en la red del yihadismo radical por su carácter de exaltación del odio religioso, y pocos son los que se escandalizan por ello. ¿Qué tienen los neonazis o los supremacistas blancos que no tenga el yihadismo radical, aparte -desgraciadamente – de más simpatizantes en algunas sociedades occidentales? Décadas de prohibición de actitudes y memorabilia nazi en algunos países europeos no parecen haber conseguido gran cosa a la hora de hacer desaparecer ese tipo de ideologías. ¿Aciertan las compañías tecnológicas pasando a una actitud más beligerante de exclusión del discurso del odio? ¿Pueden unos simples términos de servicio competir con la Primera Enmienda? ¿Se trata de una respuesta, posiblemente peligrosa, a la falsa equidistancia y al discurso de “ellos contra nosotros” del presidente Trump? ¿Deben ponerse límites a la libertad de expresión en la red?

 

 

 

This post is also available in English in my Medium page, “Are tech companies correct to move against the alt-right?” 

 

Powered by WPeMatico

Machine learning para detectar comportamientos nocivos en la red

IMAGE: Redrockerz - 123RFUno de los principales problemas que redes como Twitter han experimentado a lo largo de los años es, como hemos comentado ya en bastantes ocasiones, su gestión del problema del acoso y el insulto.

Desde su fundación, Twitter intentó plantearse como una herramienta que hacía una defensa militante y maximalista de la libertad de expresión, lo que terminó por generar un entorno en el que era precisamente esa supuesta libertad de expresión la que se veía coartada por las reacciones de usuarios con comportamientos nocivos.

A lo largo del tiempo, ese ambiente nocivo le ha costado a Twitter grandes disgustos, desde un crecimiento menor de lo esperado, a un predominio creciente de comportamientos pasivos (lurking) frente a activos, e incluso a comprometer su futuro provocando que otras compañías dejasen de plantearse posibles ofertas de adquisición derivadas de las dinámicas venenosas existentes en la plataforma.

Tras múltiples intentos de corrección de estas dinámicas, muchos de los cuales son en realidad auténticas “tácticas de avestruz”, formas de ocultar el acoso a los ojos del acosado como si eso lo hiciese supuestamente desaparecer, ahora Twitter se plantea algo nuevo: una colaboración con IBM para que sea su sistema de machine learning, Watson, quien detecte, a través del estudio de patrones conversacionales, posibles situaciones de acoso y comportamientos abusivos, incluso antes de que sean denunciados.

¿Es posible que una inteligencia artificial detecte actitudes como el acoso o el abuso verbal? La cuestión no parece sencilla, porque hablamos de situaciones que van desde el insulto directo, que podrían ser detectadas simplemente con el uso de un diccionario, hasta otras mucho más complejas en las que se hace uso de la ironía, de los dobles sentidos, o de elementos no presentes en la conversación a los que se hace referencia de manera velada como insinuaciones, o a veces ni eso. Acosar a alguien puede incluir dinámicas muy complicadas, a veces incluso retorcidas, y utilizar patrones que van desde lo más sencillo a lo más alambicado.

¿A favor de Twitter? Cuenta posiblemente con uno de los mejores archivos online de comportamientos abusivos denunciados como tales. A lo largo de sus ya once años de historia, la compañía se ha visto envuelta en todo tipo de escándalos de elevada visibilidad y en una amplísima variedad de situaciones infinitamente menos conocidas que han afectado a usuarios de todo perfil y condición, con desenlaces conocidos. Para la compañía, resulta perfectamente posible estudiar en su inmenso archivo toda situación en la que determinadas actitudes hayan sido denunciadas como acoso, insulto, bullying, sexismo, incitación al odio, etc. e incluso etiquetar perfiles en función de su inclinación a exhibir ese tipo de comportamientos. Ese tipo de datos son precisamente lo que un algoritmo de machine learning necesita para ser entrenado correctamente, considerando que la semantización y el análisis del lenguaje humano ya son llevados a cabo algorítmicamente de manera más que satisfactoria. Obviamente, esto aún no incluye todo: algunas situaciones, como el uso de imágenes, pueden resultar algo más difíciles de procesar, pero en modo alguno representan algo que, a día de hoy, esté fuera de las capacidades de una inteligencia artificial, o en ultimo término, algo que puede recibir ayuda puntual de evaluadores humanos a la hora de determinar si efectivamente se trataba de una situación de ese tipo.

¿Puede Watson convertirse en el juez que determina si el comportamiento de un usuario debe ser considerado nocivo? Como afectado en algunos momentos por comportamientos de ese tipo que vio, además, cómo Twitter se lavaba las manos e incluso contribuía a empeorar aquella situación considerada por muchos como algo “simpático” y digno incluso de ser premiado, creo que sí, que el machine learning puede aportar un sistema que permita, cuando menos, etiquetar ese tipo de comportamientos, tipificarlos y permitir una gestión adecuada de los mismos, como también es muy posible que pueda colaborar en la detección de otro patrón habitual: la gestión de múltiples identidades y la apertura inmediata de otra cuenta para proseguir con el comportamiento nocivo cuando la primera cuenta es eliminada.

¿Existe algún tipo de conflicto entre un sistema así y la libertad de expresión? Todo depende de cómo queramos definir la libertad de expresión. Si consideramos que una red social debería servir para que todos podamos decir todo lo que se nos pase por la cabeza sin ningún tipo de freno o cortapisa, sí. Pero el ser humano vive en sociedad, la vida en sociedad se regula mediante determinadas reglas que van desde leyes a protocolos más o menos explícitos, y creo que a estas alturas, todos deberíamos asumir que el adjetivo “social” aplicado al sustantivo “red” debería implicar algo más que lo que actualmente implica. Al menos, en el caso de Twitter…

 

Powered by WPeMatico

Cuando la publicidad programática no atina

IMAGE: Samuraitop - 123RFGoogle se ha encontrado con un serio problema en el Reino Unido, cuando de repente, el gobierno y algunos grandes anunciantes hicieron pública su decisión de interrumpir la publicidad institucional en YouTube debido a la aparición de anuncios gubernamentales en páginas de vídeos con contenidos calificables como de incitación al odio, racistas, antisemitas, extremistas o de mal gusto.

El problema, que ha obligado a la compañía a prometer controles más rigurosos en el etiquetado de ese tipo de contenidos, hace evidentes las carencias del esquema publicitario que más crece en la red: la publicidad programática o real-time bidding, en la que cada impacto proviene de un proceso de subasta en tiempo real de la audiencia supuestamente cualificada de una página.

La supuesta idea de hacer llegar el anuncio correcto a la persona adecuada y en el momento perfecto, administrada mediante un sistema que permite al más interesado formular el precio más elevado, choca con muchos problemas en su conversión en realidad. Y uno de ellos es tan claro y evidente como que los contenidos no pueden ser definidos únicamente por las audiencias que congregan, y menos aún si cualificamos a esas audiencias únicamente en función de unas pocas variables sociodemográficas. La realidad, como todos sabemos, es mucho más compleja que unas pocas variables.

En el caso de YouTube, resulta evidente que Google tiene un problema: las cifras que mueve, en torno a trescientas horas de vídeo recibidas y publicadas cada minuto que pasa, hacen imposible una supervisión manual: se calcula que serían necesarias unas cincuenta mil personas viendo vídeo constantemente durante ocho horas al día para poder llevarla a cabo. En su lugar, YouTube emplea un sistema de alertas basadas en herramientas para la comunidad de usuarios: cuando varias personas marcan un vídeo como ofensivo, este pasa a un sistema de supervisión manual que podría llevar a varias medidas, desde su eliminación total de la plataforma a su exclusión del sistema de publicidad, pasando por bloqueos locales, exclusión de determinadas audiencias, u otras posibilidades.

El problema para un gobierno o compañía no termina simplemente diciendo “yo no sabía nada” o “no tengo ni idea de en qué sitios sale mi publicidad”, porque aunque nadie tenga por qué asumir que una publicidad determinada suponga el estar de acuerdo con los contenidos de una página, la cuestión va mucho más allá de un simple problema estético: es que con la impresión publicitaria se está contribuyendo a financiar al creador del contenido. De ahí que la idea de que con dinero público o con los beneficios de una marca se estén aportando recursos a causas como el racismo, la xenofobia, el odio, el terrorismo o el antisemitismo, entre otras, resulte tan preocupante.

Por otro lado, la cualificación de los contenidos está lejos de ser el único problema de la publicidad programática. A medida que crece y se generaliza este mecanismo, se está dando lugar a un ecosistema en el que cunde la sensación de que “todo es mentira“: audiencias generadas a golpe de bots, cantidades crecientes de click fraud, reproducciones de vídeo simuladas o inexistentes, analíticas falseadas… hace algún tiempo, escribía en El Español sobre la necesidad de un reset para la industria de la publicidad en general: en muy poco tiempo, la red ha pasado de representar la promesa de un medio perfecto para alcanzar con nuestros mensajes publicitarios a las personas a las que más les pudiesen interesar, a convertirse en una especie de salón de los espejos en el que se fabrica tráfico, se compra tráfico, se vende tráfico y se simula tráfico. 

Una vez más, se cumple la regla general: una vez creado un ecosistema atractivo y sometido a un fuerte crecimiento, no tardan en aparecer aprovechados dispuestos a enturbiarlo, a timar a incautos y a destrozar su propuesta de valor. Nada nuevo bajo el sol.

 

Powered by WPeMatico

Arreglando la naturaleza humana

IMAGE: Ayelet Keshet - 123RFMi columna de El Español de hoy se titula “Algoritmos y mala leche“, y está dedicada a Perspective, el algoritmo anunciado por Jigsawla incubadora de ideas de Alphabet dedicada a la aplicación de soluciones tecnológicas para luchar contra la censura, los ciberataques o el extremismo, capaz de detectar, en un hilo de comentarios en una página, cuáles contienen insultos, descalificaciones, ataques personales o, de un modo general, lenguaje tóxico

Hablamos de un algoritmo de machine learning: comentarios recogidos de hilos de publicaciones como The Economist, The Guardian, The New York Times o Wikipedia (la experiencia con The New York Times aparece recogida en este artículo) fueron evaluados por una serie de personas mediante encuestas, y clasificados en una escala que iba desde “muy tóxico” hasta “muy saludable”, con la toxicidad definida como “comentario maleducado, no respetuoso o no razonable que puede decidirte a abandonar una conversación”. Lo que el algoritmo hace es tratar de reconocer esos comentarios, evaluarlos, y buscar casos similares para adscribirles una etiqueta similar en forma de porcentaje de probabilidad.

A partir de ahí, la herramienta – por el momento en inglés – se pone a disposición de quien la quiera utilizar para continuar con el entrenamiento del algoritmo. El uso que el propietario de la página desee hacer de ella es completamente abierto, desde simplemente etiquetar comentarios en función de su supuesta toxicidad para ayudar a la moderación, a directamente conectarlo con sistemas que eliminen o impidan enviar determinados comentarios en función de su contenido, y siempre con la posibilidad de retroalimentar el aprendizaje.

El algoritmo intenta solucionar uno de los problemas más antiguos vinculados a la participación en la web: el hecho de que las personas y los sistemas de moderación no son escalables. Si en esta simple página que suele publicar únicamente un artículo al día me ha costado en algunas temporadas muchísimo tiempo y esfuerzo moderar los comentarios para tratar de mantener una conversación saludable y productiva, imaginar la tarea de un periódico que pueda publicar cien veces más artículos y dedicados a temas intrínsecamente polémicos por su naturaleza como el deporte o la política es algo que excede las posibilidades de muchos medios, y que ha llevado a muchos editores a tomar decisiones que van desde el no incluir comentarios, hasta abandonar de manera prácticamente total los hilos a su suerte y permitir que se conviertan en auténticos estercoleros. El problema es importante, porque anula una de las que deberían ser las ventajas más interesantes de la web: la posibilidad de participar en foros susceptibles de enriquecer nuestra opinión o de ampliar nuestros puntos de vista.

Es pronto para saber si Perspective funcionará satisfactoriamente, o si será pasto de usuarios malintencionados que se dediquen a intentar envenenar su funcionamiento añadiendo información falsa. Por el momento, está disponible en la página para jugar a introducirle textos en inglés – funciona con algunos insultos en español, pero simplemente derivado de su dinámica de aprendizaje y de su uso relativamente popular en inglés – y ver cómo los evalúa, y puede ya ser añadido como API a páginas que quieran utilizarlo para hacer pruebas. En cualquier caso, tanto si funciona como si no, la idea de poner a un algoritmo a solucionar un problema de la naturaleza humana que las personas no hemos sido capaces de resolver con soluciones mínimamente escalables no deja de ser una paradoja y todo un elemento para la reflexión…

 

Powered by WPeMatico

Sobre el futuro de Twitter

Twitter, los 'trolls' y el futuro incierto de la red social del pajarito - Cinco Días

Marimar Jiménez, de Cinco Días, me envió algunas preguntas por correo electrónico con el fin de documentar un artículo sobre los problemas de Twitter con los trolls y el hate speech al hilo de los últimos cambios introducidos por la compañía en ese sentido, y ayer viernes publicó su artículo titulado “Twitter, los trolls y el futuro incierto de la red social del pajarito” (en pdf).

Mi opinión sobre la enésima batería de cambios introducidos por Twitter es que siguen sin entender absolutamente nada. Desarrollar nuevas herramientas para que los usuarios ofendidos puedan bloquear y ocultar a quienes les ofenden no es válido: equivale a proponer a aquellos que son acosados que adopten la estrategia del avestruz, que piensen eso de que si no lo ven no les va a doler. Completamente absurdo, y rayano en lo insultante. Proponer nuevas herramientas para denunciar abusos es igualmente tonto, porque basta con un único sistema, claro, sencillo y fácilmente accesible.

Lo único que funciona aquí es adiestrar a los empleados encargados en Twitter para que aprendan a reconocer las dinámicas abusivas e insultantes, y actúen con la mano dura suficiente como para poner en la maldita calle de forma inmediata e inapelable a todos aquellos que incurran en ellas, con el fin de eliminar radicalmente la sensación de impunidad que existe en la red del pájaro azul desde sus primeros tiempos. Solo ese tipo de medidas, planteadas de una manera suficientemente radical y con el sentido común adecuado para separar la simple ironía o la opinión de los insultos y el acoso, pueden contribuir a erradicar las actuales dinámicas que tanto perjudican a Twitter como ecosistema.

A continuación, el texto completo de las preguntas que intercambié con Marimar:

P. Hoy Twitter ha anunciado que pone en marcha una batería de herramientas para combatir los abusos, intimidación, insultos y acoso.  Este tipo de  comportamientos inhiben a las personas de participar en Twitter, pero hasta que punto esta afectando este problema en el negocio de Twitter?

R. Junto con la dificultad para cristalizar un modelo de negocio viable, la gestión del llamado “hate speech” es el problema más importante al que se enfrenta Twitter actualmente. La vocación de la compañía por evitar todo aquello que pueda evocar algún tipo de censura ha devenido en el desarrollo de un entorno en el que todas las normas socialmente aceptadas de etiqueta o educación se ignoran de manera sistemática, y en donde la violencia verbal, el insulto o el acoso se han convertido en dinámica habitual. El resultado nos muestra un problema directamente derivado de la naturaleza humana: las normas de educación y los protocolos sociales están para evitar que la convivencia social acabe en bofetadas, y Twitter, al decidir no controlar este tipo de comportamientos, se ha convertido en un ring de boxeo permanente. Twitter ha evolucionado hasta ser un entorno donde a cualquiera le parece normal publicar un insulto, utilizar la ironía de manera descarnada o jalear al gallito que se mete con otro, que encuentra en esos likes, retweets y followers añadidos un auténtico refuerzo positivo de su conducta, como el corro que rodea al matón que golpea a un niño en el colegio. Esto convierte a Twitter en un ambiente hostil, y destruye con ello la principal propuesta de valor del servicio como pulso de la actualidad, como ventana a la que asomarse para mantenerse en contacto con los temas que uno decide seguir. A nadie le gusta asomarse cada poco tiempo a un estercolero.

P. ¿Está provocando esta situación que muchas empresas no quieran poner su publicidad en esta Red social?

R. La evolución de las dinámicas de agresividad es uno de los problemas de Twitter a la hora de captar anunciantes: pocas empresas se arriesgan a que una acción publicitaria acabe generando un ruido creciente de insultos, ironías mal entendidas o comentarios que si fuesen hechos directamente en la calle, merecerían sin ninguna duda un puñetazo. Si cada vez que intentas comunicar con potenciales clientes aparecen unos cuantos a criticarte, a insultarte y a descalificarte, el entorno se hace menos amigable a la actividad publicitaria. Por otro lado, el compromiso con una publicidad no molesta y no intrusiva lleva a que algunas compañías, seguramente de manera equivocada, opten por canales en los que poseen mayor libertad. Lo más optimista es pensar que Twitter terminará siendo capaz de rentabilizar la ingente cantidad de información que genera en forma de algún modelo de segmentación mejor o de panel de información permanente sobre el mercado, pero por el momento, a pesar de varias adquisiciones en ese sentido, la compañía ha sido bastante lenta en la ejecución.

P. ¿Conoces alguna compañía que haya decidido no estar en Twitter por esta razón? ¿Está dentro de Twitter, en su naturaleza de libertad de expresión, el verdadero talón de Aquiles de la compañía?

R. Por el momento, la única compañía que ha comentado específicamente que el mal ambiente en Twitter no era compatible con su imagen limpia y familiar ha sido Disney, que se planteó la adquisición porque le ayudaba a complementar su panorama mediático, pero la descartó rápidamente. Que una compañía con capacidad financiera más que sobrada para adquirirte decida de repente que no lo hace porque eres un nido de trolls es una cuestión muy, muy seria. Si Twitter no toma medidas verdaderamente eficientes para cambiar ese incómodo elemento de su cultura de uso, es muy posible que tenga serios problemas de viabilidad en el futuro.

 

Powered by WPeMatico

Twitter y sus problemas con la naturaleza humana

Twitter harassmentMi columna de esta semana en El Español se titula “Twitter y la naturaleza humana“, y habla de cómo los problemas de la red del pájaro azul con los insultos, el bullying, la humillación, el hate speech o el acoso han conseguido que perdiese la oportunidad de ser objeto de una adquisición que podría haber significado una esperanza interesante de futuro para la compañía.

Cuando hablamos de ese tipo de cuestiones en Twitter, no hablamos de un comportamiento ocasional, de algo que sucede únicamente de forma excepcional o de un problema vinculado con circunstancias especiales: hablamos de algo que sucede todos los días, de manera constante y habitual, y contra lo que la compañía e ha manifestado completamente incapaz de tomar ninguna iniciativa mínimamente seria. A lo largo del tiempo, la actitud de Twitter hacia este tipo de comportamientos ha oscilado entre la total complacencia y la tolerancia amparada en un supuesto respeto escrupuloso a la libertad de expresión, olvidando que, en la inmensa mayoría de esos casos, lo que se conculcaba era precisamente la libertad de expresión de los que tenían la desgracia de ser objeto de acoso, abuso o insultos.

La sociedad no desarrolla unas normas de comportamiento por capricho. Las reglas y protocolos sociales, la educación, las buenas maneras y el respeto están ahí para hacer posible la convivencia humana. Cuando en una red se permite de manera completamente expresa que esas normas sean vulneradas, ocurre lo que ocurre: que la naturaleza humana prevalece, muchos disfrutan convirtiéndose en “malotes” – por prudencia me guardaré la forma en la que los adjetivaría yo – que insultan y acosan a sus anchas, y muchos más les hacen coro, los amplifican y les ríen las gracias. Que Twitter no haya, en ningún momento de su historia, emprendido una política de exclusión sin miramientos, de expulsión sumaria y sin posibilidad de recurso de todo aquel que vulnere unas normas de convivencia razonables, ha llevado a que ahora no solo tenga problemas, sino que incluso pierda muchos miles de millones de dólares por una oferta que una compañía se planteó hacerle, pero descartó porque esos comportamientos podían perjudicar a su reputación.

Tras varios años de dejación de responsabilidad y sin hacer nada al respecto, los insultados, abochornados públicamente, acosados o humillados no son uno ni dos: son legión, y entre ellos se cuentan todo tipo de perfiles, desde mujeres objeto de insultos alucinantemente sexistas o salvajemente inhumanos, hasta personas atacadas en función del color de su piel, su religión o sus creencias, pasando por toreros, artistas, y muchas, muchas personas anónimas que simplemente tuvieron la desgracia de cruzarse con quien no debían. Hoy, encontrar la propuesta de valor de Twitter, que la tiene, exige mantener un comportamiento razonablemente discreto, seguir a las personas o medios que pueden publicar información relevante para ti, alguna vez compartirla – siempre dejando claro que tus retweets no implican apoyo, no vaya a ser que alguien se mosquee – y compartir pocas cosas, bajo el permanente riesgo de que aparezca un “simpático” a sacarle punta a algo que has podido decir o a una foto que hayas podido compartir. Y cuando digo un “simpático” es precisamente eso: un mecanismo que lleva a que, por ser más cruel, más dolorosamente creativo o más irónico, te hagan muchos más los coros y la red te premie con muchos más seguidores. La historia y evolución de Twitter es tan sencilla como decir que los malos siempre ganaron.

La naturaleza humana, tristemente, no va a cambiar. La única respuesta para contenerla y vivir en sociedad razonablemente bien sin estar tirándonos los trastos a la cabeza y convirtiendo el ambiente en irrespirable es poner reglas, es hacerlas cumplir escrupulosamente, es el community management bien entendido y bien ejecutado. No, los insultos y el acoso no son el único problema de Twitter: también están los bots absurdos, el spam y algunos más. Pero si Twitter quiere tener futuro, sola o gestionada por un tercero, tiene únicamente dos opciones: corregir este problema, o corregir este problema. No hay más.

 

Powered by WPeMatico

Libertad de expresión e internet: una mezcla muy compleja

Gawker and hateConfieso que me siento incapaz de llegar a conclusiones sólidas en el asunto de la libertad de expresión en internet. Por más que lo analizo y lo intento interpretar a través de años de noticias relacionadas con el tema, no consigo de ninguna manera llegar a una doctrina que pueda abrazar con un mínimo de convicción.

Mi última tormenta cerebral al respecto viene de la lectura de dos artículos, ninguno de los dos perfectos ni mucho menos indiscutibles, pero que sí reflejan puntos de vista relativamente elaborados sobre dos asuntos interesantes: por un lado, el dilema, llevado a la portada de Time, de qué hacer en las redes sociales o en internet en general con el problema de los trolls, del hate speech o de las dinámicas de acoso o abuso, un problema que Twitter lleva experimentando desde hace muchos años. Por otro, el cierre y posterior subasta de Gawker Media, una de las primeras compañías de medios nativos de internet, por obra de un millonario, Peter Thiel, que decidió aplicar sus muy profundos bolsillos a financiar toda campaña que pudiese contribuir a dañar financieramente a la compañía, como parte de una cruzada personal a partir de un artículo que Gawker publicó sobre él en 2007. La venganza, efectivamente, es un plato que se come frío.

En cierto sentido, que una compañía con tantas mentes brillantes como Twitter lleve prácticamente una década luchando con ese mismo tipo de dilemas me hace sentir algo mejor: decididamente, no es un tema sencillo. En las disquisiciones de Twitter al respecto, además, he sido juez y parte: en el año 2008, una acción extremadamente mal planteada por Twitter me demostró que el acoso y el bullying iban a ser un problema importante para la compañía, uno que claramente no sabía cómo solucionar. En aquella ocasión, pude ver perfectamente cómo una cuenta cuya actitud yo consideraba claramente acoso, era jaleada por cientos de personas siguiendo exactamente la misma dinámica y actitudes que tiene lugar con el bullying en los patios de colegio, y cómo las soluciones planteadas por la compañía contribuían a empeorar el problema, no a solucionarlo. Hace ya muchos años que Twitter sabe perfectamente que no hacer nada frente al acoso y el bullying no es una solución, y de hecho, empeora el problema generando una cultura de total impunidad al respecto, que ha llevado a algunos a plantearse abandonar Twitter y que algunos afirman que podría llegar hasta el punto de terminar con una compañía que no está siendo capaz de lidiar con la cuestión, y que parece limitarse a poner tiritas. No, retirar los insultos de la pantalla del insultado no los hace desaparecer.

Que una persona, llevada por su popularidad, su ingenio, su capacidad para la ironía o por sus inquinas personales decida arremeter contra otra por la razón que sea, o sin razón alguna, y se vea rodeado por un coro de babosos que jalean su actitud es algo que hace algunos años decidimos como sociedad que estaba mal. Nótese que utilizo la palabra “algunos”, no “muchos”: en el patio de mi colegio, el acoso y el bullying eran algo normal y cotidiano, y la actitud de profesores, del colegio o incluso de los padres era considerarlo “cosas de niños”, algo sin ninguna importancia, sobre lo que en rarísimas ocasiones se tomaba medida alguna. Las cosas han cambiado bastante desde entonces: como sociedad, hemos tenido que ver de todo, incluidos suicidios, para que el acoso y el bullying pasasen a ser considerados prácticas censurables contra las que se debe luchar, pero incluso hoy, el problema dista mucho de estar solucionado – aunque personalmente crea que se han hecho grandes progresos y que estamos decididamente mejor que en mis ya lejanos tiempos de colegio. En la red, sin embargo, el acoso y el bullying siguen funcionando exactamente igual que entonces: los bullies son muy parecidos, los babosos que los corean y jalean son idénticos, el daño inflingido es muy, muy similar… y las medidas para tratar de solucionarlo chocan con lo que para mí son interpretaciones completamente erróneas de lo que se considera libertad de expresión.

En el caso de Gawker, mis sentimientos son aún más complejos. No, no me parece adecuado que el mundo se haya convertido en un lugar en el que, si enfadas a un billonario, corras el riesgo de perder tu empresa, tu trabajo o tu página web. Que Peter Thiel termine cerrando Gawker gracias a sus cuasi-ilimitados recursos económicos no otorga al desenlace ninguna legitimidad. Pero por mucho que no simpaticemos con Peter Thiel… ¿preferimos hacerlo con una publicación que tomó la decisión de publicar un artículo sobre una cuestión completamente personal suya, su sexualidad, que debería tener toda la libertad para decidir hacer pública o no? ¿Debe la libertad de expresión proteger a una publicación que hace algo así, que excede claramente los límites de cualquier derecho, bajo el supuesto objetivo de afflict the comfortable”? Si tu línea editorial consiste en vender lo más posible gracias a publicar lo que te dé la gana, amparado por una interpretación ilimitada de la libertad de expresión, y sin reparar en los posibles daños que puedas ocasionar… ¿no es mejor para la sociedad en su conjunto que te cierren? Sí, lo sé: alegrarme por el cierre de Gawker Media me convertiría automáticamente en una persona muy criticable, que aparentemente querría vivir en un mundo de piruleta, de relaciones públicas y sin ningún tipo de periodismo incisivo, pero ¿estamos seguros de que esa bandera del “periodismo incisivo” y del “si no molestas a alguien es que no has dicho nada interesante” es sostenible? Y peor aún, ¿estamos seguros de querer que lo sea? Si no censuramos a quienes insultan, me temo, estaremos censurando de facto a los insultados: por defender la libertad de expresión de los que insultan, pasamos a perjudicar la liberta de expresión de los que no pueden decir nada sin recibirlos. 

No soy ningún angelito. En ocasiones he publicado cosas que sabía perfectamente que iban a resultar dolorosas para algunas personas. Y cuando lo he hecho, lo he hecho porque he considerado que el cargo o las responsabilidades que ostentaban esas personas justificaba que alguien como yo les exigiese responsabilidades, les afease conductas o les recriminase decisiones. En alguna ocasión, incluso, me han llevado a los tribunales por ello, han tratado de silenciarme y me han ocasionado un perjuicio económico porque a alguien con mucho dinero no le gustaba lo que yo decía, algo que suele calificarse (y no fui el único en hacerlo) como SLAPP, Strategic lawsuit against public participation. Pero sinceramente, no creo que sea una cuestión de cristales, de colores o de interpretaciones de la libertad de expresión: sigo pensando que hablamos de cosas diferentes.

¿Hablamos acaso de “gamas de grises”? ¿Tendemos a ver como inofensivo o a jalear a quien insulta a un poderoso, porque estemos de acuerdo con él, o porque esa persona con poder nos caiga mal o nos genere una malsana envidia? ¿Puede legislarse de una manera coherente sobre algo como la libertad de expresión, sujeta a una subjetividad tan profunda? ¿Qué ocurre con el humor negro, con los chistes de mejor o peor gusto, o con tantas otras manifestaciones capaces de causar sufrimiento a la par que hilaridad? ¿Hay límites? ¿Quién los pone? ¿La ley? ¿La moral, la educación y las buenas costumbres? ¿El sentido común? ¿Todos los anteriores? ¿O ninguno de ellos? Nunca he creído en la censura, condeno sistemáticamente la quema de libros, pero tampoco me parece adecuado que cualquiera pueda andar por el mundo diciendo lo que le dé la gana y sin sufrir ninguna consecuencia por ello. ¿Me convierte eso en un raro?

Creo profundamente en la libertad de expresión. La considero prácticamente una bandera, una causa, algo que vale la pena defender a ultranza. No querría vivir en un país en el que considerase que no existe libertad de expresión. Pero “defender a ultranza” no quiere decir que vaya a defender a los que prostituyen esa bandera para hacer lo que les dé la gana. Creo que libertad de expresión no es lo mismo que “libertad para publicar lo que nos dé la real gana”. Creo que si usas la libertad de expresión como “libertad para ser un perfecto imbécil”, como “libertad para decir lo que se me pase por la cabeza” o como “libertad para hacer daño gratuitamente”, mereces que te echen de los sitios, que te aíslen socialmente, que te multen o que te censuren. Por muy “ingenioso” que seas y por mucha “chispa” que tengas, o por muchos babosos a los que les guste ver como te metes con un poderoso. Creo – profundamente – en la libertad de expresión tanto como no creo en absoluto en el “vale todo”.

En muchos sentidos, el problema de Twitter es que ha hecho tan sencillo que cualquiera tenga voz, que ha dado voz a muchos que, sencillamente, no deberían tenerla, que carecen de la responsabilidad mínima que hay que tener para que la sociedad te permita tener voz. Estoy completamente de acuerdo con el artículo de Buzzfeed: con su actitud pasiva, Twitter se ha convertido en un “honeypot for assholes”, un imán para gilipollas que nunca deberían tener acceso a una herramienta como esa, y que, una vez demostrado que es así, deberían perder el derecho a utilizarla durante un tiempo suficiente como para que reflexionen sobre su actitud. Es lo que hay, sé perfectamente que muchas personas que conozco y que me aprecian no podrán retwittear esta entrada porque lo fácil es hablar de la libertad de expresión como algo incondicional, universal, como un concepto “sin apellidos”, como una verdad absoluta. Pero sinceramente, creo que no es así, ni debe serlo. Y el caso de Gawker Media me parece similar: no simpatizo con Peter Thiel y no me gusta que el dinero lo pueda comprar todo, pero lo siento, tampoco puedo simpatizar con Nick Denton y su “vale todo”.

Y aquí lo dejo, que seguro que ya me he granjeado suficientes enemigos hoy.

 

Powered by WPeMatico