La tecnología perpetúa el racismo porque fue diseñada para hacerlo

Los negros llevan décadas viendo cómo distintas herramientas tecnológicas se utilizan para atacarlos, como los sistemas de reconocimiento facial que buscan a sospechosos en función del color de piel. Si no cambiamos de enfoque, las tecnologías para controlar el coronavirus podrían convertirse en una amenaza similar.


· por Charlton Mcilwain | traducido por Ana Milutinovic

· 08 junio, 2020


Hoy en día, Estados Unidos se tambalea bajo el peso de dos pandemias: la del coronavirus (COVID-19) y la de la brutalidad policial.


Ambas causan violencia física y psicológica. Ambas matan y debilitan desproporcionadamente a las personas negras y mulatas. Y ambas avivan la tecnología que diseñamos, reutilizamos e implementamos, ya sea el rastreo de contactos, el reconocimiento facial o las redes sociales.



A menudo recurrimos a la tecnología para intentar resolver los problemas. Pero si la sociedad define, plantea y representa a las personas de color como "el problema", esas soluciones suelen provocar más daños que beneficios. Hemos diseñado tecnologías de reconocimiento facial que buscan a sospechosos criminales en función del color de la piel. Hemos entrenado sistemas automatizados de perfiles de riesgo que señalan de forma desproporcionada a personas de origen latino como inmigrantes ilegales. Hemos ideado algoritmos de calificación crediticia que a las personas negras como posibles riesgos y les impiden comprar una casa, conseguir un préstamo o encontrar trabajo, identifican también de forma desproporcionada.



Entonces, la pregunta que debemos afrontar es si vamos a seguir diseñando y usando herramientas que sirvan a los intereses del racismo y de la supremacía blanca. Por supuesto, esta pregunta no es nueva para nada.


Derechos no civiles


En 1960, los líderes del Partido Demócrata de EE. UU. se enfrentaron a un problema propio: ¿cómo podría su candidato a la presidencia, John F. Kennedy, reforzar el apoyo de los negros y de otras minorías raciales, que estaba reduciendo?


El politólogo emprendedor del MIT (EE. UU.) Ithiel de Sola Pool presentó una solución: recoger los datos de los votantes de las anteriores elecciones presidenciales, introducirlos en una nueva máquina de procesamiento digital, desarrollar un algoritmo para modelar el comportamiento electoral, predecir qué posiciones políticas conducirían a los resultados más favorables y utilizarlas para hacer recomendaciones para diseñar la campaña de Kennedy.

Pool fundó una compañía nueva, Simulmatics Corporation, y ejecutó su plan. Fue un éxito: Kennedy fue elegido presidente y los resultados demostraron el poder de este nuevo método de modelado predictivo.



La tensión racial se intensificó durante la década de 1960. Luego vino el largo y caluroso verano de 1967. Las ciudades de todo el país ardían. Los estadounidenses de raza negra protestaban por la opresión y por la discriminación a la que se enfrentaban por parte del sistema de justicia penal de Estados Unidos. Pero el entonces presidente del país, Lyndon B. Johnson, denominó el fenómeno como "desorden civil" y formó la Comisión Kerner para comprender las causas de los "disturbios del gueto". La Comisión acudió a Simulmatics. 

Como parte de un proyecto de la agencia de investigación del Pentágono DARPA para cambiar el rumbo de la Guerra de Vietnam, la compañía de Pool había trabajado para preparar una campaña masiva psicológica y de propaganda contra el Vietcong. Johnson quería usar la tecnología de influencia conductual de Simulmatics para calmar la amenaza interna de la nación, no solo contra sus enemigos extranjeros. Con el pretexto de lo que denominaron un "estudio de medios", Simulmatics formó un equipo para lo que equivalía a una campaña de vigilancia a gran escala en las "áreas afectadas por los disturbios" que captó la atención de la nación aquel verano de 1967.


Equipos de tres miembros se movilizaron a las áreas donde se habían producido las protestas. Identificaron y entrevistaron a personas de raza negra estratégicamente importantes. Hicieron un seguimiento para identificar y entrevistar a otros residentes negros, en todos los lugares, desde peluquerías hasta iglesias. Preguntaron a los residentes qué opinaban sobre la cobertura de los medios de comunicación sobre las "revueltas".


Pero también recogieron datos sobre muchas más cosas: cómo se movían dentro y alrededor de la ciudad durante los disturbios, con quién hablaban antes y durante, y cómo se preparaban para las represalias. Recopilaron datos sobre el uso de los sistemas de peaje, de las ventas en las estaciones de servicio y de las rutas de autobuses. Lograron acceder a estas comunidades con el pretexto de tratar de entender cómo los medios de comunicación supuestamente avivaron las "protestas". 


Pero el objetivo de Johnson y los líderes políticos era utilizar la información que Simulmatics recogió para rastrear el flujo de información durante las manifestaciones para identificar a las personas más influyentes y decapitar a los líderes de las protestas.


No lo lograron tan directamente. No asesinaron ni metieron en la cárcel a nadie, y los líderes no "desaparecieron" de forma secreta.


Pero a finales de la década de 1960, este tipo de información había ayudado a crear lo que se conoció como "sistemas de información de justicia penal". Estos sistemas se han multiplicado a lo largo de las décadas, sentando las bases para la creación del perfil racial, la vigilancia predictiva y la vigilancia racialmente selectiva. Su legado incluye a millones de mujeres y hombres negros y mulatos encarcelados.


Replantear el problema


La piel oscura y la población negra. Ambas persisten como gran problema de EE. UU. y me atrevo a decir que incluso de nuestro mundo. Cuando el rastreo de contactos surgió por primera vez al inicio de la pandemia, fue fácil verlo como una herramienta necesaria y benigna de vigilancia sanitaria. El coronavirus era nuestro problema, y empezamos a diseñar nuevas tecnologías de vigilancia en forma de aplicaciones de rastreo de contactos, control de temperatura y mapeo de amenazas para abordarlo. 


Pero ocurrió algo tan curioso como trágico. Hemos descubierto que las personas negras, las de origen latino y las poblaciones indígenas hemos sufrido contagios de manera desproporcionada. De repente, también nos convertimos en un problema nacional; amenazábamos con propagar el virus de forma desproporcionada.


Eso se agravó cuando el trágico asesinato de George Floyd a manos de policía blanco sacó a miles de manifestantes a las calles. Cuando comenzaron los saqueos y disturbios, nosotros, los negros, parecíamos de nuevo una amenaza para la ley y el orden, una amenaza para un sistema que perpetúa el poder racial blanco. Eso nos hace pensar cuánto tiempo tardarán las fuerzas policiales en implementar esas tecnologías que al principio se diseñaron para luchar contra COVID-19 para sofocar la amenaza que supuestamente los negros representan para la seguridad de la nación.


Si no queremos que nuestra tecnología se use para perpetuar el racismo, entonces debemos asegurarnos de no mezclar los problemas sociales como el crimen, la violencia o las enfermedades con las personas negras y mulatas. Si lo hacemos, corremos el riesgo de convertir a esas personas en un problema para el que implementamos nuestra tecnología para resolverlo, en una amenaza para la que diseñamos la tecnología con el objetivo de erradicarla.


*Charlton McIlwain es profesor de medios, cultura y comunicación en la Universidad de Nueva York (EE. UU.) y autor de 'Black Software: The Internet & Racial Justice, From the AfroNet to Black Lives Matter'

Suscríbete a nuestro boletín

Este espacio fue creado para la libre expresión y publicación de artículos de diversos autores quienes son responsables de los mismos. ExpressArte Internacional y/o Expre Interna y sus representados no se responsabilizan por las opiniones vertidas y/o publicaciones desde la creación de su página, cuenta o portal de Facebook, estas son responsabilidad de quién las escribe exclusivamente, no de quién las publica.

  • White Facebook Icon

© 2023 by TheHours. Proudly created with Wix.com