1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

futuros posibles

La gobernanza de la Inteligencia Artificial: de solucionar los problemas a diagnosticarlos

Los ciudadanos están tratando de gestionar el futuro y discutiendo qué constituye una “buena vida”. Debemos conectar todos estos debates para encontrar de qué manera la IA puede contribuir a hacer realidad estos futuros sin amenazarlos

Urvashi Aneja Tandem Research Chatham House 3/01/2022

<p><em>Inteligencia Artificial</em>. </p>

Inteligencia Artificial

Geralt Altmann

A diferencia de otros medios, en CTXT mantenemos todos nuestros artículos en abierto. Nuestra apuesta es recuperar el espíritu de la prensa independiente: ser un servicio público. Si puedes permitirte pagar 4 euros al mes, apoya a CTXT. ¡Suscríbete!

La evidencia creciente de los múltiples riesgos y perjuicios que comportan los sistemas de toma de decisiones mediante algoritmos han urgido la cuestión de la gobernanza de la Inteligencia Artificial (IA). Los gobiernos, la industria y los organismos de la sociedad civil del planeta están actualmente desarrollando marcos de referencia para lograr un uso de la IA que sea más seguro, justo y responsable. El presente artículo ofrece un repaso de las visiones dominantes respecto la gobernanza de la IA y mantiene que, si bien dichos enfoques son relevantes y necesarios, aún no abordan adecuadamente los retos sobre la ética, el poder y la comunidad. Como complemento a los enfoques centrados en encontrar “soluciones a los problemas” –basados en minimizar los daños causados por la IA– también necesitamos visiones centradas en el “diagnóstico de problemas”, que examinen el origen y las causas de los actuales imaginarios y de la economía basada en la IA. Pivotando entre estos dos enfoques, será más fácil identificar y llevar a cabo intervenciones sistémicas y emancipatorias, con vistas a fusionar los avances de la innovación en IA y el bienestar de la sociedad. 

Solución de problemas mediante la autorregulación, los estándares técnicos y la defensa de los derechos humanos 

En respuesta a la desconfianza social que genera el impacto de la IA, y al aún incipiente marco regulatorio en este campo, un número creciente de compañías tecnológicas han optado por autorregularse, dotándose de un conjunto de principios éticos que guíen el desarrollo y el despliegue de la IA. En ese sentido, tan solo en 2018 y 2019, la organización AlgorithmWatch ha contado más de cien declaraciones éticas empresariales sobre IA. Si bien difieren entre ellas en cuanto al articulado, casi todas convergen en los principios de transparencia, imparcialidad, equidad, responsabilidad y seguridad. Naturalmente, el problema principal de estos marcos éticos es que no son vinculantes ni obligatorios; resulta tan sencillo comprometerse a cumplir estos principios como violarlos. La mayoría de declaraciones se formulan generalmente en forma de promesas ambiguas, sin una concreción explícita de cómo deberán cumplirse o implementarse. Podría afirmarse que, en realidad, la mayoría de los marcos éticos parecen más un parapeto de la industria para sugerir que con la autorregulación es suficiente para minimizar los riesgos de la IA, y evitar así otras formas de regulación que les resten margen de autonomía y de control.

Otra pregunta que debemos plantearnos es qué tipo de ética está siendo privilegiada en dichos marcos; por qué, por ejemplo, determinadas interpretaciones de la equidad y la transparencia han sido incorporadas a las discusiones sobre la IA ética, y, del mismo modo, cuáles son los marcos éticos alternativos que, a consecuencia de ello, han quedado excluidos. Como señalan Noopur Raval y Amba Kak1 con respecto a las diferencias entre los contextos geográficos “no podemos asumir que términos como imparcialidad, transparencia y responsabilidad tengan el mismo significado, o siquiera la misma centralidad, en las discusiones sobre IA, ética y gobernanza que tienen lugar [en el Norte] y en el Sur Global”.

Otro enfoque, surgido en el seno de la comunidad de la ciencia de la computación, defiende el diseño y la programación de sistemas algorítmicos más justos, responsables y transparentes. Sin embargo, este objetivo requiere de debates previos imprescindibles y no siempre sencillos. Por ejemplo, una investigación reciente acerca del algoritmo Compass, que es el que emplean los tribunales estadounidenses, sugiere que se alcanzarían resultados similares empleando menos de los 20 parámetros de información que se emplean actualmente. Al simplificar el algoritmo, éste sería más explicable y debido a ello, más fácil de calibrar y supervisar.

Sin embargo, debemos tener presente que la equidad es un atributo de los sistemas sociales, no de los sistemas técnicos; solo se puede entender dentro de un contexto social. Incluso en el seno de la comunidad de científicos de la computación coexisten diversas definiciones de justicia/equidad. En determinados casos puede incluso ser necesaria la discriminación positiva para ajustar o corregir desigualdades sociales ya existentes. Así pues, el objetivo de construir mejores algoritmos debe estar precedido por un debate sobre si es realmente necesario o no desplegar sistemas algorítmicos para desarrollar dichas tareas. Consideremos, por ejemplo, el caso de las aplicaciones para el reconocimiento facial; incluso si los algoritmos subyacentes son equitativos, transparentes y responsables, esto no desvanece las preocupaciones sobre el impacto que tenga esta tecnología sobre los derechos y libertades civiles.

Un tercer y más prometedor enfoque es la implementación de marcos regulatorios internacionales basados en el respeto a los derechos humanos. En este caso, se trata de marcos universales y vinculantes, que pasan a formar parte del corpus del derecho internacional; en este caso, las responsabilidades de gobiernos y empresas sí quedan bien delimitadas, y existe ya un conjunto de instancias jurídicas domésticas, regionales e internacionales pensadas para subsanar los incumplimientos. Esta área atrae cada vez más el interés de los gobiernos y de académicos, sumando cada vez más voces en pos de la adopción de este tipo de marco regulador de la Inteligencia Artificial basado en los derechos humanos. A pesar de ello, persisten aún tres escollos importantes por sortear. El primero se refiere a que dicho marco regulador sitúa al individuo en el centro de su acción y prioriza los perjuicios individuales. No obstante, en el mundo de la IA los perjuicios son más a menudo sociales y estructurales que individuales. Tomemos, por ejemplo, los modelos de Inteligencia Artificial para la calificación del crédito que se nutren de datos de los usuarios obtenidos de las redes sociales y de sus hábitos de consumo; el problema no es solo de privacidad, o que determinados individuos sean discriminados por los amigos que tienen, o por cómo gastan su dinero, sino que con el tiempo y a partir de múltiples interacciones, están generando nuevas categorías del tipo de individuo que es confiable. Los algoritmos, según afirma Tarleton Gillespie2, “no son solo códigos con consecuencias” sino que están “íntimamente ligados a la producción de significado”. ¿Es suficiente un enfoque meramente regulatorio, cuando lo que está en juego es cómo conocemos y entendemos el mundo? La evidencia nos muestra que este tipo de cuestiones va más allá del citado marco regulador basado en los derechos humanos.

Igualmente, una sola acción perjudicial puede pasar inadvertida, pero muchas instancias perjudiciales combinadas o persistentes en el tiempo pueden tener consecuencias sistémicas, que lleguen incluso a alterar las estructuras sociales. La reestructuración de industrias enteras mediante la automatización inteligente, por ejemplo, tendrá efectos adversos en el empleo. Las nuevas cotas de eficiencia y de automatización que conllevará la IA reducirán forzosamente la necesidad de mano de obra, y es muy probable que esto exacerbe la desigualdad global. Esta es en particular una preocupación para los países en vías de desarrollo, que ya tienen unos índices muy elevados de desempleo y subempleo, a los que deberán sumarse la relocalización de las industrias manufactureras. Bien es cierto que en el Sur Global están surgiendo nuevos empleos en el mercado laboral telemático, dedicados a proporcionar a las industrias globales de IA servicios de etiquetaje y categorización de datos necesarios para el buen funcionamiento de las aplicaciones, pero son empleos con retribuciones bajas y volátiles y con unas condiciones de trabajo precarias. Este tipo de perjuicios estructurales tienden, por lo general, a quedar al margen de los enfoques centrados en los derechos.

En muchos lugares, particularmente en los países en vías de desarrollo, las instituciones de defensa de los DD.HH. tienden a ser menos capaces de proteger a los más vulnerables

El segundo escollo para desarrollar un marco regulador centrado en los derechos humanos, reside en que la existencia de unos derechos implica también la de unos deberes de garantía que, en este caso, recaen sobre todo en el Estado y otras organizaciones vicarias. Y los acontecimientos recientes evidencian que los estados, incluyendo las democracias liberales, están dotándose de tecnologías de vigilancia basadas en la IA a un ritmo más rápido que nunca antes, con el propósito de supervisar y vigilar a los ciudadanos. ¿Hasta qué punto, pues, pueden estos mismos estados proporcionar una protección significativa contra las vulneraciones de los derechos humanos? Uno de los puntos débiles del enfoque legalista o regulador a escala global es asumir que en caso de infracción existen también las instancias de reparación. Lo cierto es que en muchos lugares, particularmente en los países en vías de desarrollo, las instituciones de defensa de los derechos humanos tienden a ser más débiles y mucho menos capaces de proteger a los más vulnerables. Tal y como afirma Chinmayi Arun3, “cuando las empresas despliegan estas tecnologías en los países del Sur, existen muy pocos recursos e instituciones que puedan proteger los derechos de las personas marginalizadas. Las democracias jóvenes carecen aún de la estabilidad institucional necesaria; (…) y del tiempo que requiere institucionalizar las prácticas democráticas”.

El tercer y último escollo se basa en que, como dice Anna Laureen Hoffman4, los marcos basados en los derechos se concentran en un número determinado de actores perversos, desatendiendo a las estructuras más amplias que les dan cabida. Un ejemplo de ello es el documental de Netflix “El gran hackeo”, producido en el 2019 y focalizado en la empresa Cambridge Analytica, que vilipendia a Facebook y a su fundador, Mark Zuckerberg, sin recalcar que  la lógica subyacente a sus actos –clusterizar a los usuarios para influir sobre preferencias con objetivos tanto comerciales como políticos– es una práctica que se ha extendido de manera generalizada en todo el sector y que está siendo aceptada y aplaudida por muchos. Además, como argumenta Hoffman, los debates sobre los derechos humanos no contemplan cómo se crean las estructuras de privilegios y cómo esto puede producir resultados injustos. Tampoco contribuyen a facilitar la relación entre las estructuras cambiantes de poder y de agencia. Considérese la cuestión de la supervisión en el lugar de trabajo: aunque se solicite el consentimiento del trabajador para la recopilación de datos para evaluar su rendimiento, e incluso respetando escrupulosamente los estándares de protección de datos, tiende a prestarse poca atención al cambio fundamental que esto produce en la dinámica de poder entre patrones y empleados, como consecuencia de los sistemas de monitorización, incluso cuando estos cuentan con el consentimiento expreso de los afectados. 

Desentrañando el imaginario y la economía de la IA 

Resulta indudable que las diversas aproximaciones citadas a los retos de la IA (la autorregulación, los estándares técnicos y muy especialmente la defensa de los derechos humanos) jugarán un papel crucial a la hora de fijar estándares, establecer normas y responsabilidades, y encauzar la investigación sobre la IA hacia el beneficio social. Pero, de manera complementaria, es necesario adoptar también un enfoque más estructural, que atienda a los relatos, los valores, los intereses y las historias subyacentes a las actuales tendencias de la IA y que ponga de nuevo en el centro los debates sobre el poder y la comunidad.

Hasta el momento, las estrategias nacionales de IA de los gobiernos de todo el mundo se caracterizan por un relato en el que resuena el principio de que “el ganador se lo lleva todo”, convencidos como están de que es necesario asegurarse un lugar preeminente en la carrera de la IA, con vistas a asegurar el crecimiento económico y la prosperidad futuros. Son muchos los documentos políticos que exudan la ansiedad de “ser dejado atrás”.

El Estado está perdiendo capacidad de maniobra frente al entramado de nuevas tecnologías y en el espacio que ello genera

Por el contrario, en los países en vías de desarrollo, la IA se asocia mayormente a la “modernidad” y al “progreso”, y se contempla como una tecnología que puede ayudar a estos países a “ponerse al día” y a superar los desafíos al desarrollo de largo recorrido. Si atendemos pues a este futuro imaginario, podemos extrapolar que la IA podría supuestamente catapultar a los países en vías de desarrollo hacia nuevas cotas de crecimiento, soltando el lastre de los problemas políticos, económicos y sociales que actualmente les atañen. Esta particular visión de la IA ha sido alimentada por las empresas tecnológicas; como escribe Yarden Katz5, la IA es una herramienta de marketing que encarna el mismo ímpetu que hace una década se depositaba en el análisis de datos a gran escala y los centros de datos empresariales. También ha generado un fértil espacio para que empresas del sector privado comercialicen y vendan productos basados en la IA con el pretexto de mejorar la eficiencia o resolver un problema crítico de desarrollo. El grueso del desarrollo global de la IA lo dirige un reducido grupo de “macroempresas tecnológicas” que tienen acceso a la mayoría de datos digitales globales; el crecimiento de la actual industria de la IA se basa de hecho en una enorme concentración de poder que se retroalimenta. Los argumentos acerca de una “IA socialmente beneficiosa” son a menudo promovidos por las mismas empresas tecnológicas, en un intento de desviar la atención de los intereses comerciales que impulsan la innovación en IA, o para ocultar sus usos y efectos más perniciosos.

El aprendizaje automático o machine learning –la técnica dominante en la IA actual– es esencialmente una forma de estadística computacional que implica dos procesos fundamentales: la clasificación o reconocimiento de patrones, y la predicción para la generación de patrones. Estos patrones los genera una correlación estadística y no indican la existencia de una relación de causalidad. Es por ello que Matteo Pasquinelli6 sostiene que el aprendizaje automático, como una modalidad de estadística, representa una forma de “compresión de la información” que al mismo tiempo genera “ocultaciones de información”, al desestimar datos que son relevantes. La primera es la que hace posible que las empresas obtengan beneficios, mientras que la segunda comporta a menudo “una pérdida de la diversidad cultural del mundo”.

Los datos nunca son neutrales y siempre son parcialmente representativos. Dado que los sistemas de aprendizaje automático funcionan a partir de la inferencia de datos históricos (de sucesos que ya han tenido lugar), los patrones o predicciones producidos por dichos sistemas tenderán a reproducir y a ampliar desigualdades socioeconómicas ya existentes. El requerimiento de datos masivos para nutrir al aprendizaje automático está propiciando las dinámicas extractivas de información de la economía de datos, a expensas de la privacidad y los derechos individuales.

Si percibimos la IA en estos términos –como una forma de estadística computacional que, como sostiene Cathy O’Neil, “reproduce el futuro basándose en el pasado”– nos veremos forzados a moderar nuestras expectativas de “una IA para el Desarrollo” o “una IA para el Bien Social”.

Los modelos estadísticos son ciertamente útiles, ya que pueden ayudarnos a identificar tendencias, nos proporcionan apoyo informativo, y son una herramienta útil en la toma de decisiones, en la planificación de los recursos y en la automatización de determinados procesos. Sin embargo, debemos ser conscientes de sus límites y sus ocultaciones, así como de los intereses comerciales que empujan la innovación actual y de sus mecanismos de actuación. Esto es particularmente importante en el caso de los países en vías de desarrollo, en los que la IA aún se percibe como la panacea a los problemas del desarrollo más complejos y donde, en paralelo, el Estado está perdiendo capacidad de maniobra frente al entramado cada vez más complejo de nuevas tecnologías y en el espacio que ello genera para que tecnócratas y grandes empresas tecnológicas influyan sobre las políticas tecnológicas estatales.

El célebre investigador en IA, De Kai, ha definido el momento actual como “una siesta de la IA”, ya que los modelos estadísticos de datos masivos como el aprendizaje automático y el aprendizaje profundo (deep learning) aún no representan bien la noción de “inteligencia”. La referencia habitual a que el aprendizaje automático se asemeja a enseñarle a un niño mediante la repetición de un mismo conjunto de inputs –por ejemplo, mostrándole una y otra vez un gato para que lo identifique– es inadecuado, ya que la máquina carece de la capacidad de abstracción que le permite al niño identificar un gato tras un breve número de ejemplos. Es posible que aquí resida una oportunidad para adentrarnos en un futuro diferente de la IA, en base a desarrollar otras técnicas computacionales capaces de crear máquinas verdaderamente inteligentes y menos reduccionistas, que no dependan de un volumen masivo de datos y de recursos tan solo al alcance de un reducido grupo de empresas tecnológicas.

De ese modo, también hemos de considerar el tipo de “inteligencia” que prioriza la innovación actual en IA. Los paradigmas actuales promueven una interpretación particular de la persona individual, como un agente libre y racional, que busca maximizar sus deseos. Diana Myers señala que estas concepciones atomizadas del individuo están disociadas de las fuerzas sociales y políticas y que “se identifican más bien con la racionalidad instrumental del mercado”. Los valores que generalmente se asocian a la inteligencia son la capacidad de razonar y la de hacer inferencias. Pero el supuesto de la racionalidad queda desmentido casi diariamente por la experiencia; la forma en que tanto gobiernos como la opinión pública han respondido ante la pandemia es un buen ejemplo de ello. La maximización individual del deseo también es potencialmente perjudicial. La actual política de vacunación o la resistencia a ponerse la mascarilla son ejemplos en este sentido. En esta definición dominante de la inteligencia artificial también se mezclan diferentes tipos de inteligencia, particularmente los relacionados con la inteligencia emocional o con cualidades como la empatía o el cuidado de los demás. Una vez más, la pandemia ha demostrado lo importantes que son estos otros tipos de inteligencia; actualmente los grupos de ayuda mutua son los que mantienen viva a la gente en India, y estos grupos se basan en el deber percibido de cuidar, no en un cálculo racional de la maximización del interés propio.

Otros investigadores están explorando cómo la ética centrada en el comunitarismo y en valores como la empatía y la compasión, puede moldear la gobernanza de la IA

Junto con el desarrollo de nuevas técnicas computacionales para la inteligencia mecánica hemos de considerar otros tipos de persona, de inteligencia y de ética para trazar futuros alternativos a la IA. Los sistemas de conocimiento autóctonos, por ejemplo, no sitúan a los humanos al margen o por encima de los sistemas naturales. Los paradigmas relacionales basados en la idea de la sostenibilidad social y ambiental están detrás del desarrollo de muchas tecnologías surgidas de las comunidades indígenas. Esta ética relacional es un principio básico en muchas tradiciones culturales de todo el mundo, un principio que enfatiza el deber de cuidar de los demás, el deber de cuidar de las personas y del medio ambiente. En contraposición al modelo occidental de racionalidad implícito en la concepción predominante y la ética de la IA, Sabelo Mhlambi7 aporta la noción de ubuntu, propia del África Subsahariana, que se focaliza en el carácter relacional de las personas, como una marco referencial desde el que encarar la lógica estructural dañina que generan los sistemas de IA. Al tiempo, otros investigadores están explorando cómo la ética más asociada a los países asiáticos, centrada en el comunitarismo y en valores como la empatía y la compasión, puede moldear la gobernanza de la IA.

Estas exploraciones son cruciales. Sin embargo, el problema obvio aquí es la debilidad de las instituciones de conocimiento del Sur Global, que ha quedado una vez más en evidencia por la pandemia. Los análisis anticipatorios en los países en vías de desarrollo –incluso de países de renta media como India– han sido muy pobres, cuando no inexistentes; la cobertura en los medios de comunicación ha sido bastante superficial y las comunidades académica y política no han sabido interpretar adecuadamente la situación. Una vez más, la información más fiable y oportuna ha sido la que han aportado expertos foráneos, de los países industrializados, estudiando el mundo en vías de desarrollo. Y de nuevo, tenemos ejemplos de la asimetría del conocimiento en los debates actuales acerca de la ética de la IA; resulta llamativo, por ejemplo, que los debates sobre la nueva colonización a caballo de la IA tengan lugar mayormente en universidades y centros de investigación de las economías industrializadas. Resulta imperativo, pues, desarrollar una agenda emancipadora de la IA, que contemple mayores inversiones en la generación de conocimiento propio en los países en vías de desarrollo.

Invertir en dicha capacidad puede también proporcionar un equilibrio crítico entre los impulsos del sector privado y la atracción que sienten los gobiernos hacia las tentaciones de la IA. El rechazo que se está produciendo en contra de los sistemas de IA en algunos sectores de la sociedad civil de EEUU y Europa es un buen ejemplo; académicos, investigadores y organizaciones de juristas han desempeñado un papel fundamental identificando, documentando y estudiando los aspectos nocivos de la IA, y sus estudios son ahora la base de la acción gubernamental. Esta es obviamente una solución a largo plazo; aunque estas inversiones se hiciesen hoy, su impacto solo sería visible mucho más adelante.

A corto plazo, de una forma más inmediata, dos aspectos son críticos. El primero es la necesidad de dotarnos de nuevas organizaciones de la sociedad civil para la custodia, gestión y supervisión de los datos; ya hay varios experimentos en marcha en todo el mundo, como las cooperativas de datos y los fideicomisos de datos. Ceder a las personas el control sobre sus datos es fundamental: quién estructura, analiza y se beneficia de los datos puede fácilmente convertirse en un árbitro de quién tiene poder, estatus y reconocimiento en la sociedad.

En este sentido, debemos poner límites al alcance de la actual economía de datos extractiva; dicho de otro modo, no se trata tan solo de asegurar el uso ético y responsable de los datos, sino de plantearse en primer lugar si realmente necesitamos una recopilación exhaustiva de datos personales. En realidad, existen pocas evidencias de que la “personalización” mejora la rentabilidad empresarial. Es más, existe un número creciente de empresas líderes a nivel mundial que se alejan del marketing conductual para aproximarse a otras formas de publicidad más contextual. Del mismo modo, contamos con multitud de ejemplos de que formas alternativas y menos intrusivas de recolección de datos pueden ser igualmente rentables.

El segundo aspecto crítico a contemplar es la necesidad de abordar el dominio sobre el mercado que ejercen las grandes empresas tecnológicas. Las políticas de defensa de la competencia tendrían que actualizarse para considerar como indicador del bienestar del consumidor, no solo el precio de las cosas, sino también su control sobre los datos que genera. Exigir la neutralidad de las plataformas y un mayor control de las fusiones y adquisiciones podría crear un mercado más competitivo. Unos estándares abiertos podrían contribuir a derribar los terrenos vedados de las grandes empresas tecnológicas y a crear un ecosistema digital más descentralizado. Ninguna de estas soluciones es fácil y algunas de ellas podrían incluso tener otras consecuencias indeseables, pero todas están al alcance de los instrumentos legales tradicionales. Estas intervenciones políticas son especialmente importantes para los países en vías de desarrollo; en India, por ejemplo, los gigantes de la tecnología global están copando sectores propios del mercado y del Estado, y ejercen una cantidad enorme de poder cívico, en un momento en que los mecanismos de control y de rendición de cuentas brillan por su ausencia. 

Nuestros controvertidos futuros 

Los debates acerca de la gobernanza de la IA se dirimen a menudo en los salones del poder, entre decisores políticos, líderes empresariales, intelectuales públicos influyentes y científicos destacados. Sin embargo, estos son debates que atañen a nuestro futuro compartido y en liza: ¿cuáles son nuestras prioridades sociales o nuestras visiones de lo que constituye una “buena vida” y qué papel queremos que jueguen en esta vida los sistemas automatizados? Podemos fijarnos en los movimientos en pro de la justicia social de todo el mundo para entender las necesidades, los deseos y las prioridades de la gente; estos movimientos a menudo reúnen o hablan de las preocupaciones de los miembros más marginalizados de nuestra sociedad. Nuestras visiones colectivas del futuro tienen que centrarse en estas preocupaciones o de lo contrario, continuaremos reproduciendo los patrones existentes de injusticia y desigualdad social.

Me vienen a la mente en este sentido cuatro movimientos activos hoy en India. Los agricultores del país han estado protestando contra un nuevo proyecto de ley agraria que privatizaría la agricultura. Más allá de los méritos o deméritos del proyecto de ley, el motivo central del descontento de los agricultores de la India es el hecho de no haber sido consultados en las decisiones tomadas sobre ellos y sobre su futuro. El segundo movimiento se inició a finales de 2019, cuando ciudadanos de todas las religiones y de todas las clases protestaron contra una propuesta de enmienda a la ley de ciudadanía india. Una vez más, y sin entrar directamente en el contenido político de la propia ley, las protestas pusieron claramente de manifiesto que las personas tienen identidades múltiples y fluidas, y reivindicaron que la fluidez de la identidad es importante tanto para la seguridad física como para la movilidad social. Por otro lado, los trabajadores temporales de las plataformas de reparto y transporte protestaron en todo el país contra unas condiciones de trabajo injustas y explotadoras. Hay un reconocimiento evidente de la distribución flagrantemente desigual del valor entre las plataformas y los trabajadores temporales a expensas de su bienestar. Y, finalmente, desde la propia juventud india ha surgido un movimiento que reclama atención sobre el cambio climático y sobre la salud de las generaciones futuras.

En estos cuatro movimientos sociales, los ciudadanos están tratando de gestionar el futuro y discutiendo qué constituye una “buena vida”; sus reivindicaciones giran en torno a la agencia, la identidad, el trabajo y el medio ambiente. Hemos de conectar todos estos debates, ver qué nos están diciendo estos movimientos sobre las diferentes visiones de una futura buena vida y encontrar de qué maneras la IA puede contribuir a hacer realidad estos futuros sin amenazarlos.  

-------------------------

Referencias bibliográficas 

Arun, Ch. “AI and the Global South: Designing for Other Worlds”, en: Dubber, M.; Pasquale, F. y Das, S. (eds.). The Oxford Handbook of Ethics of AI, julio de 2020. 

Gillespie, T. “The Relevance of Algorithms”. Presentación en el marco del seminario Governing Algorithms, 17 de mayo de 2013. Accesible en línea: http://opentranscripts.org/transcript/relevance-of-algorithms/ 

Hoffman, A. L. “Where fairness fails: data, algorithms, and the limits of antidiscrimination discourse”.

Information, Communication & Society, vol. 22, nº 7: Data Justice, 2019. 

Katz, Y. “Manufacturing an Artificial Intelligence Revolution”. Harvard Medical School; Berkman Klein Center for Internet & Society, noviembre de 2017. Accesible en línea: https://papers.ssrn.com/sol3/papers.cfm?abstract_id=3078224 

Mhlambi, S. “From Rationality to Relationality: Ubuntu as an Ethical and Human Rights Framework for Artificial Intelligence Governance”. Ethics and Governance of AI, julio de 2020. Accesible en línea: https://cyber.harvard.edu/story/2020-07/rationality-relationality-ubuntu-ethical-and-human-rights-framework-artificial 

Pasquinelli, M. “How a Machine Learns and Fails – A Grammar of Error for Artificial Intelligence”. Spheres, Journal for Digital Cultures: Spectres of AI, n.º 5, noviembre de 2019. Accesible en línea: https://spheres-journal.org/contribution/how-a-machine-learns-and-fails-a-grammar-of-error-for-artificial-intelligence 

Raval, N.; Kak, N. y Calcaño, A. “A New AI Lexicon: Responses and Challenges to the Critical AI discourse”. AI Now Institute en Medium, 2021. Accesible en línea: https://medium.com/a-new-ai-lexicon/a-new-ai-lexicon-responses-and-challenges-to-the-critical-ai-discourse-f2275989fa62

Notas:

1-Véase Raval, Kak y Calcaño, 2021.

2-Véase Gillespie, 2013.

3-Véase Arun, 2020.

4-Véase Hoffman, 2019.

5-Véase Katz, 2017.

6-Véase Pasquinelli, 2019.

7-Véase Mhlambi, 2020.

------------

Este artículo fue publicado originalmente en CIDOB.

La evidencia creciente de los múltiples riesgos y perjuicios que comportan los sistemas de toma de decisiones mediante algoritmos han urgido la cuestión de la gobernanza de la Inteligencia Artificial (IA). Los gobiernos, la industria y los organismos de la sociedad civil del planeta están actualmente...

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autora >

Urvashi Aneja

Autora >

Tandem Research

Autor >

Chatham House

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí