Nuevos documentos filtrados de Facebook muestran el peligro de la viralidad

Tecnología

Lo medios mas relevante de Estados Unidos  entre los que est√°n el Wall Street Journal, el Washington Post, el New York Times o la CNN han empezado a publicar nuevos art√≠culos a partir del material extra que la garganta profunda Frances Haugen se llev√≥ de la empresa, tambi√©n compartido con la Comisi√≥n de Bolsa y Valores de EE UU. El Journal hizo una larga serie llamada “Facebook Files” en septiembre. Ahora, a petici√≥n de Haugen, el resto de documentos se ha compartido con un grupo mayor de periodistas. 


Las miles de p√°ginas completas de los documentos originales, de momento, no han sido publicados. Haugen comparece este lunes en el Parlamento brit√°nico.

Los nuevos documentos no contiene por ahora ninguna revelación espectacular que vaya a hundir a Facebook de un solo golpe. Pero significan docenas nuevas de indicios que ayudan a entender la complejidad y las decisiones polémicas de una red como Facebook. También ha podido saberse que Haugen, para no ser detectada, capturó muchos de estos documentos con fotos de su móvil a la pantalla del ordenador, no con pantallazos.


Cada medio ha escogido el enfoque que ha preferido sobre los documentos. Pero todos incluyen la historia de Carol Smith, una madre conservadora moderada de 41 a√Īos de Carolina del Norte. Smith abri√≥ una cuenta en Facebook en 2019, estaba interesada en “ni√Īos, crianza, cristianismo y comunidad” y sigui√≥ las cuentas oficiales de la cadena Fox News y del entonces presidente Donald Trump.


El primer d√≠a el algoritmo le recomendaba seguir a grupos conservadores y memes. En un par de d√≠as sus recomendaciones empezaron a radicalizarse. Al quinto d√≠a, la plataforma hab√≠a arrastrado a Smith hasta QAnon, el grupo conspiranoico que cree que el mundo est√° dirigido por una red de ped√≥filos y que Trump es el salvador. Smith no sigui√≥ esas recomendaciones pero igualmente su cronolog√≠a acab√≥ llena de posts vinculados a teor√≠as conspirativas, que violaban las normas de la compa√Ī√≠a.


Smith sin embargo no era una usuaria real. Era un experimento interno de Facebook, que repiti√≥ con usuarios ficticios progresistas que acaban en pozos similares. El experimento no es nuevo y se ha hecho con otras redes. Aunque esta vez es distinto porque es obra de investigadores dentro de la compa√Ī√≠a, con todas las herramientas y la capacidad de avisar de los peligros internamente.


La mayor√≠a de medios se ha centrado en c√≥mo Facebook celebr√≥ su √©xito en controlar la desinformaci√≥n en las elecciones de noviembre, pero luego ignor√≥ el embrollo que llev√≥ al asalto del Capitolio en enero. El debate interno sobre las consecuencias de la viralidad es sin embargo un tema de mayor calado en los documentos. De momento solo lo ha cubierto en profundidad el Journal.


El amigo de Mark

Kang-Xing Jin es amigo de Mark Zuckerberg desde sus d√≠as en la Universidad de Harvard. Es uno de los primeros empleados de la compa√Ī√≠a. Tambi√©n, seg√ļn los documentos, es uno de los quien m√°s ha alertado sobre el peligro de la viralidad: “Hay un surtido creciente de investigaci√≥n que muestra que los canales virales se usan m√°s para lo malo que para lo bueno”, escribe Jin en uno de los documentos para advertir sobre los peligros de elecciones de 2020 y de lo que llama “viralidad perjudicial rampante”.


En docenas de documentos internos, revisados siempre seg√ļn el Journal, ingenieros y cient√≠ficos de datos de Facebook detectan que el contenido viral favorece teor√≠as de la conspiraci√≥n, bulos y discurso de odio. Tambi√©n, cuando m√°s ampliamente compartido era un mensaje, la probabilidad de que fuera un contenido t√≥xico crec√≠a. Los usuarios que postean muy a menudo son especialmente peligrosos seg√ļn esos mismos estudios. De alg√ļn modo, parece, el algoritmo premia la constancia y la insistencia.


Durante la campa√Īa electoral de 2020, Facebook impuso reglas que limitaran la expansi√≥n del contenido viral. Un ingeniero llego a proponer la eliminaci√≥n del bot√≥n de compartir, que no fructific√≥.


El problema de fondo en este debate es que la viralidad implica negocio. Los usuarios est√°n m√°s tiempo en la plataforma, y ven m√°s anuncios, si el contenido les resulta llamativo. Como dijo Haugen en el Congreso, el debate se resume en si Facebook antepone los beneficios a la democracia.


El Journal describe este debate en t√©rminos muy concretos. Las palabras de Jin, el amigo universitario de Zuckerberg, encontraron un duro rival: el jefe de los anuncios, John Hegeman. “Si quitamos un porcentaje peque√Īo de compartidos de la cronolog√≠a de los usuarios, deciden volver menos a Facebook”, escribi√≥ en un documento ahora revelado. Ir menos a Facebook implica l√≥gicamente ir m√°s a otras plataformas o simplemente no ver anuncios en Facebook, lo que limita la capacidad de negocio de la compa√Ī√≠a. Adem√°s, defend√≠a Hegeman, la mayor parte del contenido viral es aceptable.


Los documentos muestran que la compa√Ī√≠a se puso siempre del lado de Hegeman, excepto durante la campa√Īa electoral para evitar un descalabro parecido a 2016. El √©xito inicial sin embargo se complic√≥ con el asalto al Capitolio.


Despu√©s de ese asalto, la compa√Ī√≠a empez√≥ a investigar a 700.000 partidarios de Stop the Steal, el movimiento digital que defiende sin pruebas que Joe Biden gan√≥ gracias a fraude. Con ese grupo de “usuarios susceptibles” mapeado, Facebook ten√≠a la opci√≥n de vigilar nuevas complicaciones y mandarle un tipo de contenido m√°s inocuo: sacarles de pol√≠tica y darles gatitos. Estos detalles muestran el enorme poder de dirigir gustos e intereses de una plataforma tan usada como Facebook.


Investigadores en Facebook han identificado algunos llamados “pasillos de informaci√≥n” de cuentas p√°ginas y redes que distribuyen contenido da√Īino. De este modo tambi√©n puede vigilar qui√©n ve qu√© y detectar a los m√°s peligrosos.


La alternativa a tener que actuar contra entidades puntuales como el Partido Patriota es activar límites a la viralidad para todos. Así sería más difícil que organizaciones basadas en odio o mentiras emergieran con tanta facilidad gracias a viralizar sus inventos. Pero Facebook prefiere disparar contra quienes se portan mal, a riesgo de seleccionar grupos que son inocuos o menos peligrosos de lo que parece. El poder que esta estrategia confiere a Facebook es enorme.


Facebook ha actuado tambi√©n contra la organizaci√≥n alemana Querdenken [pensamiento lateral] que no viola constantemente las pol√≠ticas de Facebook y promueve la no violencia pero que las autoridades alemanas vigilan. Estas decisiones acaban finalmente en preguntas imposibles, como la que hace un investigador en un documento: hay movimientos que siguen las reglas comunitarias de Facebook pero tambi√©n distribuyen contenido que “es inherentemente perjudicial y viola el esp√≠ritu de nuestras normas. ¿Qu√© hacemos cuando movimientos aut√©nticos hablan de odio o deslegitiman elecciones libres?”