Nuevos documentos filtrados de Facebook muestran el peligro de la viralidad

Nuevos documentos filtrados de Facebook muestran el peligro de la viralidad

Tecnolog铆a

Lo medios mas relevante de Estados Unidos  entre los que est谩n el Wall Street Journal, el Washington Post, el New York Times o la CNN han empezado a publicar nuevos art铆culos a partir del material extra que la garganta profunda Frances Haugen se llev贸 de la empresa, tambi茅n compartido con la Comisi贸n de Bolsa y Valores de EE UU. El Journal hizo una larga serie llamada “Facebook Files” en septiembre. Ahora, a petici贸n de Haugen, el resto de documentos se ha compartido con un grupo mayor de periodistas. 


Las miles de p谩ginas completas de los documentos originales, de momento, no han sido publicados. Haugen comparece este lunes en el Parlamento brit谩nico.

Los nuevos documentos no contiene por ahora ninguna revelaci贸n espectacular que vaya a hundir a Facebook de un solo golpe. Pero significan docenas nuevas de indicios que ayudan a entender la complejidad y las decisiones pol茅micas de una red como Facebook. Tambi茅n ha podido saberse que Haugen, para no ser detectada, captur贸 muchos de estos documentos con fotos de su m贸vil a la pantalla del ordenador, no con pantallazos.


Cada medio ha escogido el enfoque que ha preferido sobre los documentos. Pero todos incluyen la historia de Carol Smith, una madre conservadora moderada de 41 a帽os de Carolina del Norte. Smith abri贸 una cuenta en Facebook en 2019, estaba interesada en “ni帽os, crianza, cristianismo y comunidad” y sigui贸 las cuentas oficiales de la cadena Fox News y del entonces presidente Donald Trump.


El primer d铆a el algoritmo le recomendaba seguir a grupos conservadores y memes. En un par de d铆as sus recomendaciones empezaron a radicalizarse. Al quinto d铆a, la plataforma hab铆a arrastrado a Smith hasta QAnon, el grupo conspiranoico que cree que el mundo est谩 dirigido por una red de ped贸filos y que Trump es el salvador. Smith no sigui贸 esas recomendaciones pero igualmente su cronolog铆a acab贸 llena de posts vinculados a teor铆as conspirativas, que violaban las normas de la compa帽铆a.


Smith sin embargo no era una usuaria real. Era un experimento interno de Facebook, que repiti贸 con usuarios ficticios progresistas que acaban en pozos similares. El experimento no es nuevo y se ha hecho con otras redes. Aunque esta vez es distinto porque es obra de investigadores dentro de la compa帽铆a, con todas las herramientas y la capacidad de avisar de los peligros internamente.


La mayor铆a de medios se ha centrado en c贸mo Facebook celebr贸 su 茅xito en controlar la desinformaci贸n en las elecciones de noviembre, pero luego ignor贸 el embrollo que llev贸 al asalto del Capitolio en enero. El debate interno sobre las consecuencias de la viralidad es sin embargo un tema de mayor calado en los documentos. De momento solo lo ha cubierto en profundidad el Journal.


El amigo de Mark

Kang-Xing Jin es amigo de Mark Zuckerberg desde sus d铆as en la Universidad de Harvard. Es uno de los primeros empleados de la compa帽铆a. Tambi茅n, seg煤n los documentos, es uno de los quien m谩s ha alertado sobre el peligro de la viralidad: “Hay un surtido creciente de investigaci贸n que muestra que los canales virales se usan m谩s para lo malo que para lo bueno”, escribe Jin en uno de los documentos para advertir sobre los peligros de elecciones de 2020 y de lo que llama “viralidad perjudicial rampante”.


En docenas de documentos internos, revisados siempre seg煤n el Journal, ingenieros y cient铆ficos de datos de Facebook detectan que el contenido viral favorece teor铆as de la conspiraci贸n, bulos y discurso de odio. Tambi茅n, cuando m谩s ampliamente compartido era un mensaje, la probabilidad de que fuera un contenido t贸xico crec铆a. Los usuarios que postean muy a menudo son especialmente peligrosos seg煤n esos mismos estudios. De alg煤n modo, parece, el algoritmo premia la constancia y la insistencia.


Durante la campa帽a electoral de 2020, Facebook impuso reglas que limitaran la expansi贸n del contenido viral. Un ingeniero llego a proponer la eliminaci贸n del bot贸n de compartir, que no fructific贸.


El problema de fondo en este debate es que la viralidad implica negocio. Los usuarios est谩n m谩s tiempo en la plataforma, y ven m谩s anuncios, si el contenido les resulta llamativo. Como dijo Haugen en el Congreso, el debate se resume en si Facebook antepone los beneficios a la democracia.


El Journal describe este debate en t茅rminos muy concretos. Las palabras de Jin, el amigo universitario de Zuckerberg, encontraron un duro rival: el jefe de los anuncios, John Hegeman. “Si quitamos un porcentaje peque帽o de compartidos de la cronolog铆a de los usuarios, deciden volver menos a Facebook”, escribi贸 en un documento ahora revelado. Ir menos a Facebook implica l贸gicamente ir m谩s a otras plataformas o simplemente no ver anuncios en Facebook, lo que limita la capacidad de negocio de la compa帽铆a. Adem谩s, defend铆a Hegeman, la mayor parte del contenido viral es aceptable.


Los documentos muestran que la compa帽铆a se puso siempre del lado de Hegeman, excepto durante la campa帽a electoral para evitar un descalabro parecido a 2016. El 茅xito inicial sin embargo se complic贸 con el asalto al Capitolio.


Despu茅s de ese asalto, la compa帽铆a empez贸 a investigar a 700.000 partidarios de Stop the Steal, el movimiento digital que defiende sin pruebas que Joe Biden gan贸 gracias a fraude. Con ese grupo de “usuarios susceptibles” mapeado, Facebook ten铆a la opci贸n de vigilar nuevas complicaciones y mandarle un tipo de contenido m谩s inocuo: sacarles de pol铆tica y darles gatitos. Estos detalles muestran el enorme poder de dirigir gustos e intereses de una plataforma tan usada como Facebook.


Investigadores en Facebook han identificado algunos llamados “pasillos de informaci贸n” de cuentas p谩ginas y redes que distribuyen contenido da帽ino. De este modo tambi茅n puede vigilar qui茅n ve qu茅 y detectar a los m谩s peligrosos.


La alternativa a tener que actuar contra entidades puntuales como el Partido Patriota es activar l铆mites a la viralidad para todos. As铆 ser铆a m谩s dif铆cil que organizaciones basadas en odio o mentiras emergieran con tanta facilidad gracias a viralizar sus inventos. Pero Facebook prefiere disparar contra quienes se portan mal, a riesgo de seleccionar grupos que son inocuos o menos peligrosos de lo que parece. El poder que esta estrategia confiere a Facebook es enorme.


Facebook ha actuado tambi茅n contra la organizaci贸n alemana Querdenken [pensamiento lateral] que no viola constantemente las pol铆ticas de Facebook y promueve la no violencia pero que las autoridades alemanas vigilan. Estas decisiones acaban finalmente en preguntas imposibles, como la que hace un investigador en un documento: hay movimientos que siguen las reglas comunitarias de Facebook pero tambi茅n distribuyen contenido que “es inherentemente perjudicial y viola el esp铆ritu de nuestras normas. ¿Qu茅 hacemos cuando movimientos aut茅nticos hablan de odio o deslegitiman elecciones libres?”


Publicar un comentario

0 Comentarios