1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

¿TECNOLOGÍA NEUTRAL?

El lado más miserable de los algoritmos

Virginia Eubanks estudia desde hace 20 años cómo los sistemas digitales de gestión de recursos públicos señalan y castigan a la clase trabajadora en Estados Unidos

Pablo Jiménez Arandia 9/06/2021

<p>Personas durmiendo en la calle en el Tederloin. </p>

Personas durmiendo en la calle en el Tederloin. 

F.M.

A diferencia de otros medios, en CTXT mantenemos todos nuestros artículos en abierto. Nuestra apuesta es recuperar el espíritu de la prensa independiente: ser un servicio público. Si puedes permitirte pagar 4 euros al mes, apoya a CTXT. ¡Suscríbete!

Sophie Stipes era una niña del estado de Indiana (Estados Unidos) con parálisis cerebral y un trastorno en el desarrollo. Desde su nacimiento contó con la ayuda del seguro estadounidense de salud Medicaid. Nacida en el seno de una familia obrera, Sophie recibió una inquietante carta en marzo de 2008. En ella los servicios sociales del Estado le advertían de que perdería su acceso a atención médica gratuita –que incluía el pago de fármacos muy caros– por “falta de colaboración” con las autoridades a la hora de determinar si tenía o no derecho a contar con esa póliza pública.

La pequeña Sophie finalmente recuperó el acceso al seguro. Lo hizo después de que su madre, con la ayuda de varias asociaciones de base, llevase su caso hasta el mismo Congreso del estado de Indiana. Igual que ella, miles de familias de bajos recursos estaban siendo víctimas de un sistema automatizado que discernía, supuestamente, entre casos aptos y no aptos para recibir subsidios en base a criterios sorprendentes (como la existencia o no de una firma en un documento). Dicho sistema, implementado por la multinacional tecnológica IBM, llegó a denegar más de un millón de solicitudes entre 2006 y 2008, antes de que el Gobierno federal lo suspendiese ante sus evidentes fallos.

Miles de familias de bajos recursos estaban siendo víctimas de un sistema que llegó a denegar más de un millón de solicitudes de subsidios

La politóloga y profesora de la Universidad de Albany Virginia Eubanks (Nueva York, 1972) relata con todo detalle la batalla de la familia de Sophie en su libro La automatización de la desigualdad, reeditado este año en castellano por Capitán Swing. Esta y otras historias de exclusión por parte de algoritmos sirven a Eubanks para alertar sobre cómo la tecnología aplicada en los servicios públicos puede tener consecuencias desastrosas sobre los pobres. “Tenemos la tendencia a pensar en estas tecnologías como simples mejoras administrativas. Como cuestiones de eficiencia. Cuando realmente hay una serie de decisiones sociales, culturales y políticas incrustadas en ellas”, reflexiona Eubanks por videoconferencia desde su despacho en Nueva York, en conversación con CTXT. 

Señalamiento del pobre 

El libro aborda casos que ejemplifican bien esta discriminación envuelta en papel de modernidad e innovación. El condado de Allegheny, en el estado de Pensilvania, contrató en 2014 un sistema de predicción de riesgos ideado para anticiparse a posibles casos de maltrato infantil en los hogares. A partir de más de un centenar de variables, este algoritmo estimaba de forma automática en qué familias supuestamente había un riesgo para los pequeños. Si la puntuación era alta, los servicios sociales abrían una investigación que podía acabar con la retirada de la tutela de los niños. 

Eubanks revela historias de familias pobres que tuvieron que pasar por este trance… aunque no existiese ese supuesto maltrato. El algoritmo –alimentado en ocasiones por denuncias telefónicas falsas– se basaba en datos recogidos por los servicios públicos, como el número de visitas al médico o la recepción de ayudas sociales. Este tipo de muestreo, explica la autora, introducía un sesgo en el sistema: en Estados Unidos los principales usuarios de servicios públicos son familias de clase trabajadora, de tal manera que eran éstas las que acababan sufriendo el escrutinio del software.

Virginia Eubanks, autora de La automatización de la desigualdad // Sadaf Rassoul Cameron

Durante su investigación, Eubanks se trasladó también al condado de Los Ángeles, para estudiar un sistema automatizado pensado para lidiar con el sinhogarismo, uno de los grandes problemas de la ciudad de la costa Oeste. Con una población en 2017 cercana a los 70.000 sin techo y unos recursos habitacionales limitados, esta herramienta pretendía automatizar la asignación de ayudas y dirigirlas a los casos más vulnerables. Por el camino, las autoridades recogían una ingente cantidad de datos sobre las personas sin hogar, atrapadas en la necesidad de cumplir con los requisitos que requería el sistema.

Eubanks explica que estos métodos de vigilancia digital y filtrado se han extendido por todo Estados Unidos en las últimas décadas. ¿El resultado? “Las familias de clase trabajadora y los pobres no son solo juzgados por el formulario que rellenan ante los servicios sociales, sino por todo su historial de interacciones con el sistema”, apunta. “Los únicos valores que importan son la eficiencia, el ahorro de costes y la lucha contra el fraude, el desperdicio y el abuso”, en línea con el discurso pro-austeridad en la gestión pública que ha triunfado en las últimas décadas, prosigue. 

¿Quién merece ayuda? 

En las primeras páginas del libro, Eubanks traza un paralelismo histórico entre estas herramientas digitales de supervisión y los asilos para pobres que proliferaron durante el siglo XIX en la joven democracia estadounidense. Estas instituciones lúgubres, apunta la autora, tenían un doble objetivo: recluir a los excluidos lejos del resto de la sociedad y ejercer una suerte de “diagnóstico moral” sobre quiénes eran merecedores de algún tipo ayuda pública.

“Lo que hacen estas herramientas digitales también es tomar decisiones del tipo: quién merece ayuda y quién no. Y esa es una decisión política. El sinhogarismo en Los Ángeles no es un problema matemático. El problema es que no hay suficientes casas”, señala. 

Eubanks lleva veinte años estudiando el impacto que la minería de datos, los modelos de riesgo predictivo y las políticas de algoritmo tienen sobre la población pobre de su país. Y su diagnóstico es contundente: “Estamos usando estas herramientas como escapatoria. Bajo esa especie de fachada de neutralidad y objetividad nos permiten, de alguna manera, lavarnos las manos ante conversaciones difíciles que tenemos que tener como sociedad, en torno a la pobreza y el racismo”. 

La narrativa de que la pobreza sólo afecta a una pequeña minoría en EE.UU. sigue teniendo mucho éxito, tanto dentro como fuera del país norteamericano. Pero los datos son tozudos, esgrime esta profesora. Los estudios elaborados por los expertos en desigualdad Mark Robert Rank y Thomas A. Hirschl estiman que casi seis de cada diez estadounidenses caerán por debajo del umbral de la pobreza en su vida adulta. Estos datos, señala Eubanks, desmontan el discurso de que estas herramientas optimizan el reparto de unos recursos limitados sobre una población reducida. 

 “Si asumimos que esa narrativa sobre la pobreza es falsa, entonces el diagnóstico de trabajo de las herramientas digitales queda mucho más claro: se trata de una racionalización para violar los derechos humanos de la gente pobre y de clase obrera; con consecuencias duraderas para las personas, las familias y las comunidades”, apunta Eubanks. “Hay un montón de lugares en el mundo que no hay decisión que puedas tomar que te haga no merecer atención médica. Ese no es el caso en Estados Unidos”, concluye.

Una conversación global

El libro de Eubanks ha recibido numerosos premios y elogios de prominentes figuras de la izquierda estadounidense, como Naomi Klein. Las reseñas destacan su capacidad para analizar, a partir de historias humanas reales, el régimen distópico al que se ven sometidos los pobres en suelo estadounidense. Pero su autora advierte de que estos sistemas llevan años extendiéndose por todo el mundo, con efectos perniciosos también entre las clases medias.

Un ejemplo de ello es el escándalo ocurrido en Australia en torno al sistema de cobro de deudas automatizado conocido como Robodebt. En 2016 el gobierno de la isla lanzó un software que casaba los datos fiscales de los contribuyentes y su registro de ingresos para detectar posibles fraudes en el cobro de ayudas sociales. Durante este tiempo, las autoridades enviaron cerca de un millón de avisos reclamando supuestas deudas. Los afectados se vieron ante el compromiso de tener que demostrar que tales reclamos, algunos de hasta 20 años de antigüedad, eran infundados.

Después de que la prensa revelase numerosas historias truculentas de cómo este sistema estaba castigando de manera injusta a miles de familias, el primer ministro australiano anunció en 2020 que cancelaba el programa. La justicia ha dictaminado que hasta 400.000 familias tuvieron que abonar injustamente unos 720 millones de dólares australianos (casi 460 millones de euros). “Ese algoritmo estaba lleno de errores, en algunos casos con efectos horribles”, apunta Eubanks, quien decidió investigar casos similares en su país natal.

La politóloga no se sorprendió al encontrar que diversos estados utilizan también programas automatizados de reclamo de deudas antiguas, difícilmente rebatibles. “Este sistema funciona como una extorsión”, apunta. O demuestras que no eres un defraudador –con todas las complicaciones burocráticas que implica– o tienes que pagar. “De esta manera se crea esta especie de deuda gubernamental zombie”, señala.

La justicia ha dictaminado que hasta 400.000 familias en Australia tuvieron que abonar injustamente casi 460 millones de euros

En Europa tuvo lugar el escándalo que provocó la dimisión del Gobierno holandés en enero pasado. Las autoridades tributarias del país acusaron erróneamente de fraude a 26.000 familias receptoras de un subsidio para el cuidado de hijos menores. Según se ha demostrado a posteriori, la administración puso el foco de sus pesquisas en el origen de las familias y apuntó a los hogares de ascendencia marroquí o turca. El resultado para muchas de ellas fue la ruina económica y el estigma social por un fraude que no habían cometido.

Estos casos, en opinión de Eubanks, demuestran la necesidad de tener “una conversación global” sobre este tipo de sistemas, que “pueden ser implementados en sitios y maneras muy diferentes”, según el contexto y los valores que expliquen la discriminación en cada país. “Si tienes una historia como la de EE.UU. con la pobreza lo harán de una manera, pero si en tu país existe una tradición totalitaria, también afectará a estas herramientas”, señala.

Contra la neutralidad de la tecnología 

¿No hay entonces herramientas digitales que puedan funcionar en la lucha contra la pobreza? La autora de La automatización de la desigualdad responde a esta pregunta con un sí, aunque repleto de matices. En su opinión, para conseguirlo es necesario desterrar la idea de que los sistemas automatizados han de ser “neutrales”. Más bien al contrario: hay que construir herramientas con valores explícitos que ayuden a combatir los sesgos arrastrados históricamente.

“Solo la fantasía puede llevar a creer que un modelo estadístico o un algoritmo de clasificación cambiará drásticamente, como por arte de magia, una cultura, unas políticas y unas instituciones construidas a lo largo de los siglos”, escribe Eubanks. 

Este análisis se emparenta con otras voces críticas con el impacto que los algoritmos están teniendo en el Estado de bienestar de numerosos países. Poco antes del inicio de la pandemia del coronavirus, el relator especial de Naciones Unidas sobre extrema pobreza y derechos humanos, Philipp Alston, advirtió en un informe de los riesgos de encaminarnos hacia una “distopía digital del Estado social”.

En este documento se recomendaba a los gobiernos no centrar sus políticas sociales en la lucha contra el fraude, el ahorro de costes y la búsqueda de la eficiencia económica en último término. Y utilizar en cambio la tecnología para asegurar una mejora en las vidas de los más vulnerables y desfavorecidos. “Existe el riesgo de que los Estados de bienestar digitales se conviertan en Caballos de Troya de la hostilidad neoliberal hacia la protección social y las regulaciones”, concluía. 

Eubanks coincide con esta reflexión e insiste en la necesidad de tener “una conversación urgente” sobre unas herramientas que “automatizan e intensifican los aspectos ya punitivos de nuestros sistemas”. Especialmente tras la covid-19, una crisis que ha dado cobertura a los gobiernos para producir sistemas digitales cada vez más extensos e invasivos, concluye. 

Sophie Stipes era una niña del estado de Indiana (Estados Unidos) con parálisis cerebral y un trastorno en el desarrollo. Desde su nacimiento contó con la ayuda del seguro estadounidense de salud Medicaid. Nacida en el seno de una familia obrera, Sophie recibió una inquietante carta en marzo de 2008. En ella los...

El artículo solo se encuentra publicado para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Pablo Jiménez Arandia

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí