Internacional

«Facebook Papers»: cómo el algoritmo fomentó la ira y la desinformación

El algoritmo de clasificación de Facebook valoraba cinco veces más el emoji “enojado” que el “me gusta”, según la documentación interna filtrada, de lo que hoy se conoce como los “Facebook Papers”.

Washington, D.C. – (Agencias) En un interesante artículo de Jeremy B. Merrill y Will Oremus, en el prestigiado diario The Washington Post, pone al descubierto el algoritmo de Facebook que fomenta la ira y, por ende, la desinformación.

Facebook puso a los usuarios, hace cinco años, nuevas formas de reaccionar, o emojis, ante una noticia o nota publicada. El “me gusta” con el pulgar para arriba, “amor”, “risa”, “guau”, “triste” y “enojado”.

Facebook, tras bambalinas, programó un algoritmo que decide el tipo de “alimentación “, o feed, de las noticas que recibe el usuario, a través del uso los emojis, o “emociones,” que son usado para impulsar un contenido más emocional y provocativo, incluyendo el material que tal vez enoje.

El algoritmo de clasificación de Facebook valoraba cinco veces más el emoji “enojado” que el “me gusta”, según la documentación interna filtrada, de lo que hoy se conoce como los “Facebook Papers”.

La teoría es simple: las publicaciones que provocaban más el emoji “enojo”, tendían a mantener a los usuarios más comprometidos con la publicación, y, para Facebook, el negocio es comprometer al usuario.

Protesta afuera de las oficinas de Facebook

Sin embargo, los investigadores de Facebook de inmediato sospecharon una falla crítica. Favorecer este tipo de publicaciones, “abriría la puerta” a publicaciones spam, falsas o que promueven el odio.

En 2019, los investigadores de datos de la compañía descubrieron que la probabilidad de que las publicaciones que producían el emoji “enojo” incluyeran información falsa, toxica y de mala calidad era desproporcionada, según Merrill y Oremus.

El debate interno sobre el emoji “enojo”, puso al descubierto que en el algoritmo de alimentación de noticias de Facebook subyace un juicio humano altamente subjetivo.

Pese a críticas y escándalos, aumentan ganancias y usuarios de Facebook |  Omnia

Este algoritmo de aprendizaje automático, decide por miles de millones de personas qué tipo de publicación verán cada vez que abran la aplicación.

Lo que permitió que, de manera sistemática, alguno de los peores materiales altamente toxico y falso fueran más prominentes en los feed de los usuarios y una difusión a una audiencia mayor.

Las minutas de las deliberaciones fueron reveladas en la documentación entregada a la Comisión de la Bolsa y Valores de Estados Unidos, y proporcionada al Congreso por el asesor legal de la denunciante, Frances Haugen, la exempleada que sustrajo miles de documentos del gigante de las redes sociales.

Las nuevas revelaciones de los 'Facebook Papers' dejan a Zuckerberg contra  las cuerdas
Frances Haugen

«La ira y el odio es la forma más fácil de crecer en Facebook», dijo Haugen al Parlamento británico el lunes .

De acuerdo con los Facebook Papers, los empleados en los equipo de “integridad” advirtieron sobre el costo humano de ciertos elementos específicos del sistema de clasificación, advertencia que los ejecutivos de Facebook muchas veces pasaron por alto.

Para Noah Giansiracusa, profesor de matemáticas de la Universidad de Bentley en Massachussets y autor del libro “Como crear algoritmos y prevenir noticias falsas”, el sistema de aprendizaje automático “puede sonar misterioso y amenazante” pero al final del día hay un numero que predice el resultado.

Faculty Profiles @ Bentley University
Noah Giansiracusa

Y un humano está decidiendo cuál es ese resultado”.

El peso del emoji de “enojo” es solo una de las muchas variable que los ingenieros e Facebook manipulan para establecer el flujo de información y conversación en la red social más grande del mundo, que ha demostrado su influencia en todo, desde las emociones del usuario hasta las campañas políticas.

Facebook asigna un valor a las variables, algunas están ponderadas para tener más valor, otras cuentan menos y otras cuentan como negativos.

El algoritmo de suministro de noticias genera una puntuación a su feed cada vez que el usuario actualiza la publicación, la que indica que noticias o publicaciones le aparecerán al inicio y cuales irán hasta abajo, que quizá nunca vera, cada vez que abre la plataforma.

Facebook suprime miles de millones de falsas cuentas y descarta su  desmantelamiento | El Mundo | DW | 24.05.2019

Este sistema de puntación lo abarca todo. Se utiliza para categorizar y clasificar varias franjas de interacción humana en casi todos lo países y en más de 100 idiomas, de acuerdo con The Washington Post.

Facebook no hace público los valores que asigna su algoritmo a los diferentes emojis, y mucho menos las más de 10,000 “flags”, o señales, que su software toma en cuenta para predecir la probabilidad de que cada publicación produzca esas formas de participación.

A menudo, han argumentado el temor de entregar un libro de jugadas a personas mal intencionadas para explicar porque lo mantiene en secreto.

Facebook es seleccionada como la mejor empresa para trabajar en Estados  Unidos - Codigo Geek
Mark Zuckerberg (c)

Según Merrill y Oremus, la cultura de la experimentación se extendió mucho en Facebook. Sus ingenieros tiraron algunas palancas y midieron los resultados

Un experimento en el año 2012, cuyos resultados se publicaron en 2014, buscó manipular el valor emocional de las publicaciones que se muestran en el feed de los usuarios para que fueran más positivas o negativas.

Luego, se pusieron a observar si sus propias publicaciones cambiaron para coincidir con esos estados de ánimo. Lo que generó fueron preocupaciones éticas, informó en su momento The Washington Post.

Otros de los experimentos reportados en los Facebook Papers, fue impulsar algunas personas con más frecuencia en los feed de algunos de sus amigos escogidos al azar, y luego, una vez terminado el experimento, examinar si el par de amigos continuaban en comunicación.

Al final resultó que, después de años de promoción y rechazo, no hubo una compensación después de todo. Según uno de los documentos, el nivel de actividad de los usuarios en Facebook no se vio afectado.