FA/CMR
Sentirse parte de un sistema que potenciara聽 tu propio esfuerzo de comunicaci贸n, de crecer e informar, de hacer comunidad era la promesa de Facebook. Nunca fu茅 que se aprovechara de tu audiencia, para multiplicarse en poder y alcance, a trav茅s del enga帽o y la manipulaci贸n,聽 y menos que la enganchase estimulando la desinformaci贸n. Esta es la paradoja que ha quedado en evidencia estos d铆as tras la publicaci贸n de los 鈥減apeles de Facebook鈥, la excelente serie de reportajes de The Wall Street Journal basados en investigaciones internas filtradas de Facebook.聽
Escribe Kevin Roose en The New York Times,聽
鈥淟a serie ha sacado a la luz pruebas condenatorias de que Facebook tiene un sistema de justicia de dos niveles, que sab铆a que Instagram estaba empeorando los problemas de imagen corporal entre las ni帽as y que ten铆a un problema de desinformaci贸n sobre las vacunas mayor de lo que dejaba entrever, entre otras cuestiones… adem谩s la red social ignor贸 informaci贸n interna que detallaba el modo en que los mensajes de odio serv铆an para mantener enganchados a sus usuarios鈥.
En The Washington Post, Jeremy B. Merrill y Will Oremus explican, algo que resulta de por s铆 el reflejo de una conducta carente de 茅tica y moral. Se trata del valor de los emojis o emoticones con rostros expresivos de aprobaci贸n o enojo que introdujo Facebook a sus usuarios, a saber 芦amor禄, 芦jaja禄, 芦guau禄, 芦triste禄 y 芦enojado禄聽. La f贸rmula que manejaron los ingenieros de Facebook le daban cinco puntos por el emotic贸n de enojo, un punto por un 芦me gusta禄.聽 La teor铆a era simple: las publicaciones que provocaban muchas reacciones emoji tend铆an a mantener a los usuarios m谩s comprometidos, y mantener a los usuarios comprometidos, era la clave del negocio de Facebook.
Los propios investigadores de Facebook se apresuraron a sospechar una falla cr铆tica. Favorecer publicaciones 芦controvertidas禄, incluidas aquellas que hacen enojar a los usuarios, podr铆a abrir 芦la puerta a m谩s spam / abuso / clickbait inadvertidamente禄, escribi贸 un miembro del personal, cuyo nombre fue redactado, en uno de los documentos internos. Un colega respondi贸: 芦Es posible禄.
La advertencia result贸 prof茅tica, contin煤an los periodistas. Los cient铆ficos de datos de la compa帽铆a confirmaron en 2019 que las publicaciones que provocaron emojis de reacci贸n enojada ten铆an una probabilidad desproporcionada de incluir informaci贸n err贸nea, toxicidad y noticias de baja calidad.
Y eso fue lo que ocurri贸 previo a las elecciones, antes, durante y despu茅s del fat铆dico 6 de enero y los disturbios en el Capitolio. Tambi茅n lo que empez贸 a ocurrir con el movimiento antivacunas.
Pero no es todo, como lo recogen el reportero de tecnolog铆a Ryan Mac y la reportera y autora, Sheera Frenkel, en el art铆culo The New York Times, titulado: Las investigaciones internas de Facebook: los documentan muestran se帽ales de alarma sobre la desinformaci贸n.
En julio de 2019, una investigadora de la empresa que estudiaba la polarizaci贸n realiz贸 un descubrimiento impactante, detall贸 c贸mo abriendo una cuenta de Facebook para una mujer imaginaria llamada Carol Smith que hab铆a seguido p谩ginas de Fox News y Sinclair Broadcasting, la cuenta recib铆a como recomendaciones de Facebook para seguir,聽 p谩ginas y grupos relacionados con QAnon, la teor铆a de la conspiraci贸n que aseguraba falsamente que Trump se enfrentaba a una camarilla tenebrosa de ped贸filos dem贸cratas.
Como se帽alan los periodistas del The New York Times, la investigadora renunci贸 a la compa帽铆a en agosto de 2020, el mismo mes en que Facebook tom贸 medidas contra las p谩ginas y grupos de QAnon.
鈥淓n su nota de salida, que fue revisada por el Times y fue reportada previamente por BuzzFeed News, dijo que Facebook estaba 鈥渆xponiendo a los usuarios conociendo los riesgos de da帽os a la integridad鈥 y cit贸 la lentitud de la compa帽铆a en actuar sobre QAnon como una raz贸n para su salida. 鈥淒urante m谩s de un a帽o hemos sabido que nuestros sistemas de recomendaci贸n pueden llevar muy r谩pido a los usuarios por el camino de las teor铆as y los grupos conspirativos…Mientras tanto, el grupo marginal/conjunto radical de creencias ha crecido hasta tener prominencia nacional, con candidatos de QAnon al Congreso y con etiquetas y grupos de QAnon que son tendencia entre el p煤blico en general鈥. Exempleado de Facebook citado por BuzzFeedNews (ESCRIBIR ESTA FRASE)
Algo de responsabilidad deber铆an sentir los due帽os de Facebook, impulsar la mentira como estrategia de crecimiento los ha dejado convertidos en lo que son: Falsebook, una gran bit谩cora de mentiras y manipulaciones