Peggy Morton.
TML Monthly Núm 11. Noviembre 7 de 2021
El Wall Street Journal ha publicado una serie de artículos llamados "Archivos de Facebook", basados en decenas de miles de páginas de investigación interna proporcionadas por una ex empleada de Facebook, Frances Haugen. Haugen testificó posteriormente ante un estado estadounidense. Subcomité del Senado.
La información de los documentos, así como la experiencia de las personas con Facebook, muestra que los algoritmos que utiliza Facebook sirven para la promoción y "amplificación" de la incitación a la violencia, incluyendo violencia comunitaria, y contenido racista, misógino y homofóbico, así como la división del pueblo. Los algoritmos reales son secretos; se conoce su efecto, pero no exactamente cómo funcionan.
Facebook introdujo nuevos algoritmos en 2018 porque el "involucramiento" estaba disminuyendo, lo que era una amenaza para sus ganancias. La gente pasaba menos tiempo en Facebook. Este sigue siendo el caso y los nuevos mercados de Facebook no están en América del Norte. Solo India dijo tener 340 millones de usuarios de Facebook.
Los nuevos algoritmos fueron dichos por Facebook para promover el "compromiso" entre amigos y familiares, etc., retratando a Facebook como una plataforma donde todos son "participantes iguales".
Los archivos de Facebook proporcionaron los documentos internos que muestran que Facebook era más que consciente de que los algoritmos servían para "amplificar las publicaciones sensacionalistas", incluida la incitación a la violencia, el racismo y al contenido misógino, la promoción del odio etc. Esto sale a la venta en los archivos de Facebook y en otros lugares, con otros medios de comunicación que publican más información basada en documentos redactados presentados a los Estados Unidos. Audiencias del comité del Senado.
La investigación interna de Facebook concluye que los algoritmos han tenido un efecto negativo en el discurso público. Las propuestas para arreglar esto de los grupos que Facebook creó internamente para estudiar el asunto han sido ignoradas en gran medida porque implementarlas "reduciría el compromiso" y tendría un aspecto negativo. impacto en la búsqueda de los máximos beneficios.
La sugerencia es que este contenido, que perjudica a la sociedad, se "amplifique" porque esto es a lo que la gente responde y comenta, comparte y "me gusta". De hecho, los algoritmos han cambiado la forma en que operan los medios de comunicación, con los medios de comunicación quejándose a Facebook de noticias o características sobre asuntos como la alimentación saludable no pudo obtener ningún "alcance". Los partidos políticos que forman los sistemas de gobierno de los partidos de cártel también reconocieron que Facebook había cambiado la forma en que enmarca sus plataformas.
La "amplificación" de Facebook de lo que llama publicaciones sensacionalistas, junto con el uso de cuentas falsas y cuentas múltiples de un solo usuario (SUMAs) para publicar material que los algoritmos dará preferencia, cambia toda la ecuación al presentar un retrato fraudulento de lo que es "popular". Por ejemplo, un informe dice que ocho personas fueron la fuente original de información falsa sobre COVID-19 y los efectos negativos de las vacunas que "se volvieron virales". Dicen que los algoritmos de Facebook lo tomaron "viral". No es una cuestión de lo que las personas que usan su propio nombre y cuenta están de hecho diciendo y compartiendo. Los gobernantes, los expertos y los medios de comunicación utilizan la histeria creada por los algoritmos para declarar que "las personas" son racistas, misóginas, extremistas.
Otra cosa que estas audiencias en los archivos de Facebook han demostrado claramente es que los estándares de la comunidad, por los cuales se han asignado publicaciones violentas y cualquier otra cosa secreta de intereses creados para eliminar, no se aplican a políticos con escaños legislativos o puestos en el gabinete, "personalidades conocidas", artistas y similares. Millones de usuarios son considerados VIPs que están exentos de los "estándares de la comunidad". Facebook utiliza un programa llamado "Xcheck" que en 2020 incluyó a 5,8 millones de personas que fueron "incluidas en la lista blanca" y exentas de los estándares habituales. Tienen impunidad para publicar lo que quieran; no se eliminará, o solo se eliminará con la aprobación de los principales ejecutivos de Facebook, o solo después de que haya tenido tiempo de volverse viral.
El papel de las cuentas falsas y las SUMA para publicar grandes cantidades de contenido también es significativo. Los algoritmos de Facebook permiten a un solo usuario con múltiples cuentas crear una gran cantidad de tráfico propicio para la promoción por parte de los algoritmos. Los investigadores de Facebook encontraron que los enlaces populares entre los "usuarios pesados" se asociaban desproporcionadamente con información falsa, y que el contenido viral favorecía las teorías de conspiración, el discurso de odio.
Facebook afirma eliminar regularmente las cuentas falsas, aunque los investigadores coinciden en que no existe un enfoque sistemático. Los SUMOS no están en contra de sus estándares, y las cuentas múltiples se consideran una fuente significativa de nuevas cuentas. Por supuesto, algunos SUMA son legítimos ya que una persona puede tener una cuenta estrictamente para comunicarse con familiares y amigos cercanos, y otra que es pública. Sin embargo, Facebook no es comunicativo sobre la importancia de las cuentas falsas o SUMAs para sus resultados, o su relación con lo que llama "uso intensivo" y la asociación con la que ha encontrado con odio, violencia, información falsa y teorías conspirativas. Los investigadores también realizaron docenas de experimentos donde descubrieron que a medida que crecía la velocidad y la longitud de una cadena compartida, también lo hacían las probabilidades. que el contenido era tóxico.
Los investigadores de Facebook crearon una cuenta para una persona ficticia a la que llamaron Carol Smith. Su cuenta fue una de otras "usuarios" ficticias creadas en 2019 y 2020 por los investigadores que estudiaban el efecto de los algoritmos introducidos en 2018. Smith se describió a sí misma como una madre políticamente conservadora de Wilmington, Carolina del Norte, con un interés en la política, la crianza de los hijos y el cristianismo y siguió a Fox News y al entonces presidente Donald Trump. En solo dos días, Facebook recomendaba grupos dedicados a QAnon para que Smith se uniera. En una semana, su feed se llenó de grupos y páginas que habían violado las propias reglas de Facebook, incluidas las que estaban en contra del discurso de odio y la desinformación, informó NBC News. El investigador describió la experiencia de Smith en Facebook como "un aluvión de contenido extremo, conspirativo y gráfico". Esta conclusión se repitió consistentemente con otros relatos de personas ficticias creados por los investigadores. Estos hallazgos se incluyeron en los documentos presentados a la Comisión de Bolsa y Valores y se proporcionaron al Congreso en forma redactada.
Por último, los documentos indican que Facebook se ha resistido a todas las recomendaciones de su propio personal para realizar los cambios necesarios en sus algoritmos para detener su papel activo en la promoción del odio. violencia, y contenido racista, misógino y homófobo. En cambio, está "experimentando" con lo que llama "desagregar las redes dañinas", lo que significa que Facebook decide qué grupos u organizaciones están creando "daño social" y luego priva al grupo de nuevos miembros y minimiza las conexiones entre sus miembros existentes. Cualquier grupo u organización así dirigida tendría su contenido "degradado" en las fuentes de noticias, y los usuarios no serían notificados de sus publicaciones. Los documentos muestran que Facebook suprimió activamente el " Movimiento del Partido Patriota "después del alboroto del 6 de enero en el Capitolio y un grupo alemán llamado Querdenken. No se ha revelado si dicha supresión se utiliza activamente en la actualidad contra otros grupos y organizaciones.
Comments