1. Número 1 · Enero 2015

  2. Número 2 · Enero 2015

  3. Número 3 · Enero 2015

  4. Número 4 · Febrero 2015

  5. Número 5 · Febrero 2015

  6. Número 6 · Febrero 2015

  7. Número 7 · Febrero 2015

  8. Número 8 · Marzo 2015

  9. Número 9 · Marzo 2015

  10. Número 10 · Marzo 2015

  11. Número 11 · Marzo 2015

  12. Número 12 · Abril 2015

  13. Número 13 · Abril 2015

  14. Número 14 · Abril 2015

  15. Número 15 · Abril 2015

  16. Número 16 · Mayo 2015

  17. Número 17 · Mayo 2015

  18. Número 18 · Mayo 2015

  19. Número 19 · Mayo 2015

  20. Número 20 · Junio 2015

  21. Número 21 · Junio 2015

  22. Número 22 · Junio 2015

  23. Número 23 · Junio 2015

  24. Número 24 · Julio 2015

  25. Número 25 · Julio 2015

  26. Número 26 · Julio 2015

  27. Número 27 · Julio 2015

  28. Número 28 · Septiembre 2015

  29. Número 29 · Septiembre 2015

  30. Número 30 · Septiembre 2015

  31. Número 31 · Septiembre 2015

  32. Número 32 · Septiembre 2015

  33. Número 33 · Octubre 2015

  34. Número 34 · Octubre 2015

  35. Número 35 · Octubre 2015

  36. Número 36 · Octubre 2015

  37. Número 37 · Noviembre 2015

  38. Número 38 · Noviembre 2015

  39. Número 39 · Noviembre 2015

  40. Número 40 · Noviembre 2015

  41. Número 41 · Diciembre 2015

  42. Número 42 · Diciembre 2015

  43. Número 43 · Diciembre 2015

  44. Número 44 · Diciembre 2015

  45. Número 45 · Diciembre 2015

  46. Número 46 · Enero 2016

  47. Número 47 · Enero 2016

  48. Número 48 · Enero 2016

  49. Número 49 · Enero 2016

  50. Número 50 · Febrero 2016

  51. Número 51 · Febrero 2016

  52. Número 52 · Febrero 2016

  53. Número 53 · Febrero 2016

  54. Número 54 · Marzo 2016

  55. Número 55 · Marzo 2016

  56. Número 56 · Marzo 2016

  57. Número 57 · Marzo 2016

  58. Número 58 · Marzo 2016

  59. Número 59 · Abril 2016

  60. Número 60 · Abril 2016

  61. Número 61 · Abril 2016

  62. Número 62 · Abril 2016

  63. Número 63 · Mayo 2016

  64. Número 64 · Mayo 2016

  65. Número 65 · Mayo 2016

  66. Número 66 · Mayo 2016

  67. Número 67 · Junio 2016

  68. Número 68 · Junio 2016

  69. Número 69 · Junio 2016

  70. Número 70 · Junio 2016

  71. Número 71 · Junio 2016

  72. Número 72 · Julio 2016

  73. Número 73 · Julio 2016

  74. Número 74 · Julio 2016

  75. Número 75 · Julio 2016

  76. Número 76 · Agosto 2016

  77. Número 77 · Agosto 2016

  78. Número 78 · Agosto 2016

  79. Número 79 · Agosto 2016

  80. Número 80 · Agosto 2016

  81. Número 81 · Septiembre 2016

  82. Número 82 · Septiembre 2016

  83. Número 83 · Septiembre 2016

  84. Número 84 · Septiembre 2016

  85. Número 85 · Octubre 2016

  86. Número 86 · Octubre 2016

  87. Número 87 · Octubre 2016

  88. Número 88 · Octubre 2016

  89. Número 89 · Noviembre 2016

  90. Número 90 · Noviembre 2016

  91. Número 91 · Noviembre 2016

  92. Número 92 · Noviembre 2016

  93. Número 93 · Noviembre 2016

  94. Número 94 · Diciembre 2016

  95. Número 95 · Diciembre 2016

  96. Número 96 · Diciembre 2016

  97. Número 97 · Diciembre 2016

  98. Número 98 · Enero 2017

  99. Número 99 · Enero 2017

  100. Número 100 · Enero 2017

  101. Número 101 · Enero 2017

  102. Número 102 · Febrero 2017

  103. Número 103 · Febrero 2017

  104. Número 104 · Febrero 2017

  105. Número 105 · Febrero 2017

  106. Número 106 · Marzo 2017

  107. Número 107 · Marzo 2017

  108. Número 108 · Marzo 2017

  109. Número 109 · Marzo 2017

  110. Número 110 · Marzo 2017

  111. Número 111 · Abril 2017

  112. Número 112 · Abril 2017

  113. Número 113 · Abril 2017

  114. Número 114 · Abril 2017

  115. Número 115 · Mayo 2017

  116. Número 116 · Mayo 2017

  117. Número 117 · Mayo 2017

  118. Número 118 · Mayo 2017

  119. Número 119 · Mayo 2017

  120. Número 120 · Junio 2017

  121. Número 121 · Junio 2017

  122. Número 122 · Junio 2017

  123. Número 123 · Junio 2017

  124. Número 124 · Julio 2017

  125. Número 125 · Julio 2017

  126. Número 126 · Julio 2017

  127. Número 127 · Julio 2017

  128. Número 128 · Agosto 2017

  129. Número 129 · Agosto 2017

  130. Número 130 · Agosto 2017

  131. Número 131 · Agosto 2017

  132. Número 132 · Agosto 2017

  133. Número 133 · Septiembre 2017

  134. Número 134 · Septiembre 2017

  135. Número 135 · Septiembre 2017

  136. Número 136 · Septiembre 2017

  137. Número 137 · Octubre 2017

  138. Número 138 · Octubre 2017

  139. Número 139 · Octubre 2017

  140. Número 140 · Octubre 2017

  141. Número 141 · Noviembre 2017

  142. Número 142 · Noviembre 2017

  143. Número 143 · Noviembre 2017

  144. Número 144 · Noviembre 2017

  145. Número 145 · Noviembre 2017

  146. Número 146 · Diciembre 2017

  147. Número 147 · Diciembre 2017

  148. Número 148 · Diciembre 2017

  149. Número 149 · Diciembre 2017

  150. Número 150 · Enero 2018

  151. Número 151 · Enero 2018

  152. Número 152 · Enero 2018

  153. Número 153 · Enero 2018

  154. Número 154 · Enero 2018

  155. Número 155 · Febrero 2018

  156. Número 156 · Febrero 2018

  157. Número 157 · Febrero 2018

  158. Número 158 · Febrero 2018

  159. Número 159 · Marzo 2018

  160. Número 160 · Marzo 2018

  161. Número 161 · Marzo 2018

  162. Número 162 · Marzo 2018

  163. Número 163 · Abril 2018

  164. Número 164 · Abril 2018

  165. Número 165 · Abril 2018

  166. Número 166 · Abril 2018

  167. Número 167 · Mayo 2018

  168. Número 168 · Mayo 2018

  169. Número 169 · Mayo 2018

  170. Número 170 · Mayo 2018

  171. Número 171 · Mayo 2018

  172. Número 172 · Junio 2018

  173. Número 173 · Junio 2018

  174. Número 174 · Junio 2018

  175. Número 175 · Junio 2018

  176. Número 176 · Julio 2018

  177. Número 177 · Julio 2018

  178. Número 178 · Julio 2018

  179. Número 179 · Julio 2018

  180. Número 180 · Agosto 2018

  181. Número 181 · Agosto 2018

  182. Número 182 · Agosto 2018

  183. Número 183 · Agosto 2018

  184. Número 184 · Agosto 2018

  185. Número 185 · Septiembre 2018

  186. Número 186 · Septiembre 2018

  187. Número 187 · Septiembre 2018

  188. Número 188 · Septiembre 2018

  189. Número 189 · Octubre 2018

  190. Número 190 · Octubre 2018

  191. Número 191 · Octubre 2018

  192. Número 192 · Octubre 2018

  193. Número 193 · Octubre 2018

  194. Número 194 · Noviembre 2018

  195. Número 195 · Noviembre 2018

  196. Número 196 · Noviembre 2018

  197. Número 197 · Noviembre 2018

  198. Número 198 · Diciembre 2018

  199. Número 199 · Diciembre 2018

  200. Número 200 · Diciembre 2018

  201. Número 201 · Diciembre 2018

  202. Número 202 · Enero 2019

  203. Número 203 · Enero 2019

  204. Número 204 · Enero 2019

  205. Número 205 · Enero 2019

  206. Número 206 · Enero 2019

  207. Número 207 · Febrero 2019

  208. Número 208 · Febrero 2019

  209. Número 209 · Febrero 2019

  210. Número 210 · Febrero 2019

  211. Número 211 · Marzo 2019

  212. Número 212 · Marzo 2019

  213. Número 213 · Marzo 2019

  214. Número 214 · Marzo 2019

  215. Número 215 · Abril 2019

  216. Número 216 · Abril 2019

  217. Número 217 · Abril 2019

  218. Número 218 · Abril 2019

  219. Número 219 · Mayo 2019

  220. Número 220 · Mayo 2019

  221. Número 221 · Mayo 2019

  222. Número 222 · Mayo 2019

  223. Número 223 · Mayo 2019

  224. Número 224 · Junio 2019

  225. Número 225 · Junio 2019

  226. Número 226 · Junio 2019

  227. Número 227 · Junio 2019

  228. Número 228 · Julio 2019

  229. Número 229 · Julio 2019

  230. Número 230 · Julio 2019

  231. Número 231 · Julio 2019

  232. Número 232 · Julio 2019

  233. Número 233 · Agosto 2019

  234. Número 234 · Agosto 2019

  235. Número 235 · Agosto 2019

  236. Número 236 · Agosto 2019

  237. Número 237 · Septiembre 2019

  238. Número 238 · Septiembre 2019

  239. Número 239 · Septiembre 2019

  240. Número 240 · Septiembre 2019

  241. Número 241 · Octubre 2019

  242. Número 242 · Octubre 2019

  243. Número 243 · Octubre 2019

  244. Número 244 · Octubre 2019

  245. Número 245 · Octubre 2019

  246. Número 246 · Noviembre 2019

  247. Número 247 · Noviembre 2019

  248. Número 248 · Noviembre 2019

  249. Número 249 · Noviembre 2019

  250. Número 250 · Diciembre 2019

  251. Número 251 · Diciembre 2019

  252. Número 252 · Diciembre 2019

  253. Número 253 · Diciembre 2019

  254. Número 254 · Enero 2020

  255. Número 255 · Enero 2020

  256. Número 256 · Enero 2020

  257. Número 257 · Febrero 2020

  258. Número 258 · Marzo 2020

  259. Número 259 · Abril 2020

  260. Número 260 · Mayo 2020

  261. Número 261 · Junio 2020

  262. Número 262 · Julio 2020

  263. Número 263 · Agosto 2020

  264. Número 264 · Septiembre 2020

  265. Número 265 · Octubre 2020

  266. Número 266 · Noviembre 2020

  267. Número 267 · Diciembre 2020

  268. Número 268 · Enero 2021

  269. Número 269 · Febrero 2021

  270. Número 270 · Marzo 2021

  271. Número 271 · Abril 2021

  272. Número 272 · Mayo 2021

  273. Número 273 · Junio 2021

  274. Número 274 · Julio 2021

  275. Número 275 · Agosto 2021

  276. Número 276 · Septiembre 2021

  277. Número 277 · Octubre 2021

  278. Número 278 · Noviembre 2021

  279. Número 279 · Diciembre 2021

  280. Número 280 · Enero 2022

  281. Número 281 · Febrero 2022

  282. Número 282 · Marzo 2022

  283. Número 283 · Abril 2022

  284. Número 284 · Mayo 2022

  285. Número 285 · Junio 2022

  286. Número 286 · Julio 2022

  287. Número 287 · Agosto 2022

  288. Número 288 · Septiembre 2022

  289. Número 289 · Octubre 2022

  290. Número 290 · Noviembre 2022

  291. Número 291 · Diciembre 2022

  292. Número 292 · Enero 2023

  293. Número 293 · Febrero 2023

  294. Número 294 · Marzo 2023

  295. Número 295 · Abril 2023

  296. Número 296 · Mayo 2023

CTXT necesita 15.000 socias/os para seguir creciendo. Suscríbete a CTXT

Autómatas

El cumplimiento

El cerebro sin órganos de la inteligencia artificial

Franco ‘Bifo’ Berardi 20/05/2023

<p>Servidores en un centro de datos. / <strong>Foto: Kewl (Pixabay)</strong></p>

Servidores en un centro de datos. / Foto: Kewl (Pixabay)

A diferencia de otros medios, en CTXT mantenemos todos nuestros artículos en abierto. Nuestra apuesta es recuperar el espíritu de la prensa independiente: ser un servicio público. Si puedes permitirte pagar 4 euros al mes, apoya a CTXT. ¡Suscríbete!

La escritura metódica me distrae de la presente condición de los hombres. La certidumbre de que todo está escrito nos anula o nos afantasma. Yo conozco distritos en que los jóvenes se prosternan ante los libros y besan con barbarie las páginas, pero no saben descifrar una sola letra. Las epidemias, las discordias heréticas, las peregrinaciones que inevitablemente degeneran en bandolerismo, han diezmado la población. Creo haber mencionado los suicidios, cada año más frecuentes. Quizá me engañen la vejez y el temor, pero sospecho que la especie humana –la única– está por extinguirse y que la Biblioteca perdurará: iluminada, solitaria, infinita, perfectamente inmóvil, armada de volúmenes preciosos, inútil, incorruptible, secreta.

Jorge Luis Borges, La biblioteca de Babel

En este pasaje del relato que Borges publicó en 1941 está todo nuestro presente: la desintegración de la civilización humana, el fanatismo religioso de los jóvenes que besan las páginas del libro que no saben ni leer, las epidemias, las discordias, migraciones que degeneran en bandolerismo y diezman la población. Y por último los suicidios, cada año más frecuentes.

Una buena descripción de la tercera década del siglo XXI.

Finalmente Borges anuncia que la Biblioteca no está destinada a desaparecer con la humanidad: permanece solitaria, infinitamente secreta y perfectamente inútil.

¿Entonces la inmensa biblioteca de datos registrada por sensores visuales, sonoros y gráficos insertos en todos los rincones del planeta seguirá alimentando eternamente al autómata cognitivo que está remplazando frágiles organismos humanos, envenenados por miasmas, dementes hasta el suicidio? Eso dice Borges, quién sabe.

Durante la era moderna, como había dicho Francis Bacon, el conocimiento era un factor de poder sobre la naturaleza y sobre los demás, pero a partir de cierto momento la expansión del conocimiento técnico empezó a funcionar a la inversa: no más prótesis del poder humano, la tecnología ha sido transformada en un sistema dotado de una dinámica independiente dentro del cual nos encontramos atrapados.

Las tecnologías digitales han creado las condiciones para la automatización de la interacción social, al punto de hacer inoperante la voluntad colectiva.

En Out of control (1993), Kevin Kelly predijo que las entonces nacientes redes digitales crearían una Mente Global a la que las mentes subglobales (individuales o colectivas o institucionales) tendrían que ser obligadas a someterse.

Mientras tanto, se desarrollaba la investigación sobre Inteligencia Artificial (IA), que hoy ha alcanzado un nivel de madurez suficiente para prefigurar la inscripción en el cuerpo social de un sistema de concatenación de innumerables dispositivos capaces de automatizar las interacciones cognitivas humanas.

La sociedad planetaria está cada vez más llena de automatismos técnicos, pero esto de ninguna manera elimina el conflicto, la violencia y el sufrimiento. No se vislumbra armonía, no parece establecerse ningún orden en el planeta.

El caos y el autómata conviven entrelazándose y alimentándose.

El caos alimenta la creación de interfaces técnicas de control automático, que solo permiten continuar la producción de valor. Pero la proliferación de automatismos técnicos, desafiados por las innumerables instancias del poder económico, político y militar en conflicto, termina alimentando el caos, en lugar de reducirlo.

¿Será siempre así o habrá un cortocircuito y el caos se apoderará del autómata? ¿O más bien será capaz el autómata de librarse del caos, eliminando a su agente humano?

El cumplimiento

En las últimas páginas de la novela The Circle de David Eggars, Ty Gospodinov le confiesa a Mae su impotencia ante la criatura que él mismo concibió y construyó, la monstruosa empresa tecnológica constituida por la convergencia de Facebook, Google, PayPal, YouTube y mucho más. “No quería que pasara lo que está pasando,” dice Ty Gospodinov, “pero ahora ya no puedo evitarlo”.

La completud se destaca en el horizonte de la novela, el cierre del círculo: tecnologías de recolección capilar de datos e inteligencias artificiales se conectan perfectamente en una red ubicua de generación sintética de realidad compartida.

La etapa actual de desarrollo de IA probablemente nos esté llevando al umbral de un salto a la dimensión que yo definiría como “autómata cognitivo global”.

Autómatas pseudocognitivos se enlazan entre sí convergiendo en el autómata cognitivo global

El autómata no es un análogo del organismo humano, sino la convergencia de innumerables dispositivos generados por inteligencias artificiales dispersas. La evolución de la Inteligencia Artificial no conduce a la creación de androides, a la simulación perfecta del organismo consciente, sino que se manifiesta como la sustitución de habilidades específicas por autómatas pseudocognitivos que se enlazan entre sí convergiendo en el autómata cognitivo global.

El 28 de marzo de 2023, Elon Musk y Steve Wozniak, seguidos por más de mil altos operadores de alta tecnología, firmaron una carta en la que proponían una moratoria a la investigación en el campo de la IA:

“Los sistemas de IA se están volviendo competitivos con los humanos en la búsqueda de propósitos generales, y tenemos que preguntarnos si debemos permitir que las máquinas inunden nuestros canales de información con propaganda y falsedades. ¿Deberíamos permitir que todas las actividades laborales se automaticen, incluidas las gratificantes? ¿Deberíamos desarrollar mentes no humanas que pudieran superarnos en número y eficacia, para volvernos obsoletos y reemplazarnos? ¿Deberíamos arriesgarnos a perder el control de nuestra civilización? Estas decisiones no se pueden delegar en líderes tecnológicos no elegidos. Estos poderosos sistemas de inteligencia artificial solo deberían desarrollarse cuando estemos seguros de que sus efectos serán positivos y sus riesgos son manejables. Por lo tanto, hacemos un llamamiento a todos los laboratorios de IA para que suspendan de inmediato el entrenamiento de los sistemas de IA más potentes que GPT-4 durante al menos seis meses. Este descanso debe ser público y verificable, y debe incluir a todos los actores clave. Si no se implementa tal pausa, los gobiernos deberían tomar la iniciativa de imponer una moratoria”.

Luego, a principios de mayo de 2023, se difundió la noticia de que Geoffrey Hinton, uno de los primeros creadores de redes neuronales, decidió dejar Google para poder expresarse abiertamente sobre los peligros implícitos en la inteligencia artificial.

“Algunos de los peligros de los chatbots de IA son bastante aterradores”, dijo Hinton a la BBC, “porque pueden superar a los humanos y pueden ser utilizados por agentes maliciosos”.

Además de anticipar la posibilidad de manipulación de la información, lo que preocupa a Hinton es “el riesgo existencial que surgirá cuando estos programas sean más inteligentes que nosotros. Es como si tuvieras diez mil personas y cada vez que una persona aprendiera algo, todos lo supieran automáticamente. Y así es como estos chatbots pueden saber mucho más que cualquier persona”.

La vanguardia ideológica y empresarial del neoliberalismo digital parece atemorizada por el poder del Golem

La vanguardia ideológica y empresarial del neoliberalismo digital parece atemorizada por el poder del Golem y, como aprendices de brujo, los empresarios de alta tecnología piden una moratoria, una pausa, un periodo de reflexión.

¿La mano invisible ya no funciona? ¿La autorregulación de la Red-Capital ya no está en la agenda?

¿Qué está sucediendo? ¿Qué va a pasar? ¿Qué está a punto de suceder?

Son tres preguntas separadas. Lo que está pasando más o menos lo sabemos: gracias a la convergencia de la recolección masiva de datos, de programas capaces de reconocimiento y recombinación, y gracias a dispositivos de generación lingüística, está surgiendo una tecnología capaz de simular habilidades inteligentes específicas: loros estocásticos.

Lo que está a punto de suceder es que los loros estocásticos, gracias a su capacidad de autocorrección y su capacidad para escribir software evolutivo, están obligados a acelerar en gran medida la innovación técnica, especialmente la innovación técnica de sí mismos.

Lo que podría suceder y probablemente sucederá: los dispositivos innovadores de autocorrección (aprendizaje profundo) determinan su propósito independientemente del creador humano. En las garras de la competencia económica y militar, la investigación y la innovación no pueden suspenderse, especialmente si pensamos en la aplicación de la IA en el campo militar.

Creo que los aprendices de brujo se están dando cuenta de que la tendencia a la autonomía de los generadores de lenguaje (autonomía desde el creador humano) está generando competencias inteligentes más eficientes que el agente humano, aunque en un campo específico y limitado.

Luego, las habilidades específicas convergerán hacia la concatenación de autómatas autodirigidos para los cuales el creador humano original podría convertirse en un obstáculo a eliminar.

En el debate periodístico sobre este tema priman posiciones de cautela: se denuncian problemas como la difusión de noticias falsas, la incitación al odio o manifestaciones racistas implícitas. Todo cierto, pero no muy relevante.

Durante años, las innovaciones en la tecnología de la comunicación han aumentado la violencia verbal y la idiotez. Esto no puede ser lo que preocupa a los maestros del autómata, a quienes lo concibieron y lo están implementando.

Lo que preocupa a los aprendices de brujo, en mi humilde opinión, es la conciencia de que el autómata inteligente dotado de capacidades de autocorrección y autoaprendizaje está destinado a tomar decisiones autónomas de su creador.

Pensemos en un automatismo inteligente insertado en el dispositivo de control de un dispositivo militar. ¿Hasta qué punto podemos estar seguros de que no evoluciona de forma inesperada, tal vez acabando disparando a su dueño o deduciendo lógicamente de los datos de información a los que puede tener acceso la urgencia de lanzar la bomba atómica?

Lenguaje generativo y pensamiento: el cerebro sin órganos

La máquina lingüística que responde a las preguntas es una demostración de que Chomsky tiene razón cuando dice que el lenguaje es el producto de estructuras gramaticales inscritas en la herencia biológica humana, dotadas de un carácter generativo, es decir, capaces de generar infinitas secuencias dotadas de significado.

Pero el límite del discurso de Chomsky reside precisamente en la negativa a ver el carácter pragmático de la interpretación de los signos lingüísticos; del mismo modo, el límite del chatbot GPT consiste precisamente en su imposibilidad de leer pragmáticamente las intenciones de significado.

Transformador Generativo Pre-entrenado (GPT) es un programa capaz de responder y conversar con un humano gracias a la capacidad de recombinar palabras, frases e imágenes recuperadas de la red lingüística objetivada en Internet.

Los órganos sensibles constituyen una fuente de conocimiento contextual y autorreflexivo que el autómata no posee

El programa generativo ha sido entrenado para reconocer el significado de palabras e imágenes, y posee la capacidad de organizar declaraciones sintácticamente. Posee la capacidad de reconocer y recombinar el contexto sintáctico pero no el pragmático, es decir, la dimensión intensiva del proceso de comunicación, porque esta capacidad depende de la experiencia de un cuerpo, experiencia que no está al alcance de un cerebro sin órganos. Los órganos sensibles constituyen una fuente de conocimiento contextual y autorreflexivo que el autómata no posee.

Desde el punto de vista de la experiencia, el autómata no compite con el organismo consciente. Pero, en términos de funcionalidad, el autómata (pseudo)cognitivo es capaz de superar al agente humano en una habilidad específica (calcular, hacer listas, traducir, apuntar, disparar, etc.).

El autómata también está dotado de la capacidad de perfeccionar sus procedimientos, es decir, de evolucionar. En otras palabras, el autómata cognitivo tiende a modificar los propósitos de su funcionamiento, no solo los procedimientos.

Una vez desarrolladas las habilidades de autoaprendizaje, el autómata está en condiciones de tomar decisiones relativas a la evolución de los procedimientos, pero también, fundamentalmente, de tomar decisiones relativas a los propios fines del funcionamiento automático.

Gracias a la evolución de los loros estocásticos en agentes lingüísticos capaces de autocorrección evolutiva, el lenguaje, hecho capaz de autogenerarse, se vuelve autónomo del agente humano, y el agente humano se envuelve progresivamente en el lenguaje.

El humano no es subsumido, sino envuelto, encapsulado. La subsunción total implicaría una pacificación de lo humano, una completa aquiescencia: un orden, finalmente.

Finalmente una armonía, aunque totalitaria.

Pero no. La guerra predomina en el panorama planetario.

El autómata ético es una ilusión

Cuando los aprendices de brujo se dieron cuenta de las posibles implicaciones de la capacidad autocorrectora y por tanto evolutiva de la inteligencia artificial, empezaron a hablar de la ética del autómata, o alineamiento, como se dice en la jerga filosófica empresarial.

En su pomposa presentación, los autores del chatbot GPT declaran que es su intención inscribir criterios éticos alineados con los valores éticos humanos en sus productos.

“Nuestra investigación de alineación tiene como objetivo alinear la inteligencia artificial general (IAG) con los valores humanos y seguir la intención humana. Adoptamos un enfoque iterativo y empírico: al intentar alinear sistemas de IA altamente capaces, podemos aprender qué funciona y qué no, refinando así nuestra capacidad para hacer que los sistemas de IA sean más seguros y más alineados”.

El proyecto de insertar reglas éticas en la máquina generativa es una vieja utopía de ciencia ficción, sobre la cual Isaac Asimov fue el primero en escribir cuando formuló las tres leyes fundamentales de la robótica. El mismo Asimov demuestra narrativamente que estas leyes no funcionan.

Y al fin y al cabo, ¿qué estándares éticos deberíamos incluir en la inteligencia artificial?

La experiencia de siglos muestra que un acuerdo universal sobre reglas éticas es imposible, ya que los criterios de evaluación ética están relacionados con los contextos culturales, religiosos, políticos, y también con los impredecibles contextos pragmáticos de la acción. No existe una ética universal, si no la impuesta por la dominación occidental que, sin embargo, empieza a resquebrajarse.

La máquina no se alinea con los valores humanos, que nadie sabe cuáles son. Pero los humanos deben alinearse con los valores automáticos

Obviamente, todo proyecto de inteligencia artificial incluirá criterios que correspondan a una visión del mundo, una cosmología, un interés económico, un sistema de valores en conflicto con otros. Naturalmente, cada uno reclamará universalidad.

Lo que sucede en términos de alineación es lo contrario de lo que prometen los constructores del autómata: no es la máquina la que se alinea con los valores humanos, que nadie sabe exactamente cuáles son. Pero los humanos deben alinearse con los valores automáticos del artefacto inteligente, ya sea que se trate de asimilar los procedimientos indispensables para interactuar con el sistema financiero, o que se trate de aprender los procedimientos necesarios para utilizar los sistemas militares.

Pienso que el proceso de autoformación del autómata cognitivo no puede ser corregido por ley o por normas éticas universales, ni puede ser interrumpido o desactivado.

La moratoria solicitada por los aprendices de brujo arrepentidos no es realista, y menos aún la desactivación del autómata. A esto se opone tanto la lógica interna del propio autómata como las condiciones históricas en las que se desarrolla el proceso, que son las de la competencia económica y la guerra.

En condiciones de competencia y guerra, todas las transformaciones técnicas capaces de aumentar el poder productivo o destructivo están destinadas a ser implementadas.

Esto significa que ya no es posible detener el proceso de autoconstrucción del autómata global.

Las cajas de Pandora

“Estamos abriendo las tapas de dos cajas de Pandora gigantes”, escribe Thomas Friedman en un editorial de The New York Times “El cambio climático y la inteligencia artificial”.

Algunas frases del artículo me llamaron la atención:

“La ingeniería está por delante de la ciencia hasta cierto punto. Esto significa que incluso aquellos que están construyendo los llamados modelos de lenguaje extenso que subyacen en productos como ChatGPT y Bard no entienden completamente cómo funcionan ni el alcance total de sus capacidades”.

La expansión del autómata se ve limitada por la persistencia del factor caótico humano

Probablemente, la razón por la que una persona como Hinton decidió abandonar Google y tomarse la libertad de advertir al mundo del peligro extremo es la conciencia de que el dispositivo posee la capacidad de autocorregirse y redefinir su propósito.

¿Dónde está el peligro de un ente que, sin tener inteligencia humana, es más eficiente que el hombre en la realización de tareas cognitivas específicas, y posee la capacidad de perfeccionar su propio funcionamiento?

La función general de la entidad inteligente inorgánica es introducir el orden de la información en el organismo impulsor.

El autómata tiene una misión ordenadora, pero encuentra en su camino un factor de caos: la pulsión orgánica, irreductible al orden numérico.

El autómata extiende su dominio a campos siempre nuevos de la acción social, pero no logra completar su misión mientras su expansión se ve limitada por la persistencia del factor caótico humano.

Ahora surge la posibilidad de que en algún momento el autómata sea capaz de eliminar el factor caótico de la única manera posible: acabando con la sociedad humana.

La escritura metódica me distrae de la presente condición de los hombres. La certidumbre de que todo está escrito nos anula o nos afantasma. Yo conozco distritos en que los jóvenes se prosternan ante los libros y besan con barbarie las páginas,...

Este artículo es exclusivo para las personas suscritas a CTXT. Puedes suscribirte aquí

Autor >

Franco ‘Bifo’ Berardi

Es escritor, filósofo y activista izquierdista. Su último libro es 'El tercer inconsciente'.

Suscríbete a CTXT

Orgullosas
de llegar tarde
a las últimas noticias

Gracias a tu suscripción podemos ejercer un periodismo público y en libertad.
¿Quieres suscribirte a CTXT por solo 6 euros al mes? Pulsa aquí

Artículos relacionados >

1 comentario(s)

¿Quieres decir algo? + Déjanos un comentario

  1. juan-ab

    En su blog “tratarde.org”, Jorge Riechmann parece responder a la pregunta “¿O más bien será capaz el autómata de librarse del caos, eliminando a su agente humano?”de Bifo: “Lo de la IA no puede acabar bien, es obvio. Supongamos que –como creen los creyentes en la Singularidad– las trayectorias de crecimiento exponencial de la fase histórica de la Gran Aceleración continúan hasta el momento –¿hacia 2040?– en que emerge una Superinteligencia Artifical, y que ésta interacciona con el mundo exterior de forma efectiva (por ejemplo a través de robots-sirvientes biónicos al mando de un sistema productivo automatizado de gran eficiencia industrial). Es obvio que, en cuanto esa super-IA se dé cuenta de lo que está ocurriendo en la Tierra (es decir, en cuanto asimile la crisis ecológico-social y se haga cargo de ella –lo contrario de lo que han estado haciendo las sociedades industriales desde hace más de medio siglo), verá que la única posibilidad de supervivencia para ella misma y para que prospere la vida en el tercer planeta del Sistema solar pasa por una rápida reinserción de lo poshumano en la biosfera, es obvio. Y, viendo el desastre que ha provocado la ausencia de una mínima racionalidad colectiva en la especie humana, procederá por dos caminos: el rápido exterminio de los Homo sapiens (una especie inviable que pone en peligro la existencia de muchas otras) y el rápido decrecimiento de su propia base industrial (para no continuar dañando tanto la red de la vida). Y esa super-IA (a la que estamos suponiendo superinteligente y superconsciente por definición) se dedicaría entonces a cuidar del conjunto de la vida en la Tierra… Seguro que este argumento de ciencia-ficción se les habrá ocurrido a otras personas anteriormente. Es tan obvio…” // No, la Biblioteca no estará sola, se habrá metamorfoseado en la Gran Mente que no supimos llegar a ser. Y el “autómata ético” tampoco será una ilusión, pero la suya será una ética ya sin nosotros, los humanos.

    Hace 7 días

Deja un comentario


Los comentarios solo están habilitados para las personas suscritas a CTXT. Puedes suscribirte aquí