I.
Redundancia cíclica.
Laugh While You Can – Boston Dynamics Robot Fails
Es julio, pleno invierno. Mientras preparo café, trato de programar la nueva aspiradora robot que hemos comprado, para luego programar el temporizador de la estufa eléctrica. Al igual que muchos prefiero buscar un video de Youtube que me muestre los pasos a seguir, aunque hay un puñado de manuales a disposición en las cajas. Al entrar a mi celular, Youtube me sugiere el siguiente video: “Boston Dynamics Robot Fails at Parkour”. Probablemente el algoritmo cruza estos temas de mi interés; robots y fails. Play, sorbo café.
El video muestra varias caídas y bloopers de seres antropomorfos de la empresa Boston Dynamics fundada en EEUU por Marc Raibert en 1992. Recordemos que está empresa firma sus primeros contratos con la Naval Air Warfare Center Training Systems Division, y que desde entonces ha mantenido relaciones con proyectos de carácter militar por ejemplo el BigDog para DARPA (Defense Advanced Research Projects Agency) que fue adquirida por Hyundai Motor Group.
El video no trata nada de esto, es un compilado divertido de robots cayéndose, mientras circulan por un hangar lleno de obstáculos. Pero las imágenes resultan igual de perturbadoras quizás por la extraña sensación de estar con bestias de la misma especie a mi alrededor.
II.
Los robots también se equivocan.
Veo el video varias veces. Una de las imágenes más enigmáticas es una cámara POV del robot que corre entre unos cajones amarillos y cae estrepitosamente. Lo vemos golpearse la cabeza y nuestra incansable mirada humanizadora, provoca cierto glitch entre nuestra razón y nuestra empatía. Nos dice: – no pasa nada es un robot, no siente y la otra parte de nuestro cerebro actúa con cierta preocupación dándonos la idea de que estamos presente a un sujeto sintiente.
No pretendo arrancar con esto un debate moral sobre el sentir de un artefacto. Quiero sí detenerme en la idea del error. Los robots también se equivocan ¿pero les permitimos ese derecho?
Quizás uno de los principios mas depurados en la industria de la informática y de los gadgets es el “bug”. Concepto utilizado para describir un resultado erróneo o un efecto indeseado en un lenguaje de programación. El concepto se remonta a 1945 cuando comenzaban los primeros procesos de la computadora Harvard Mark II, que tuvo algunos fallos producidos por una polilla que revoloteaba entre los circuitos. Hoy se destinan cientos de dólares al año en investigar y corregir errores en un código. Desde el código en una cámara de video hasta en un robot de uso militar. Un principio fundamental de la industria es, probar y eliminar o reducir el margen de fallos. Conocida fue la acusación de racismo de las cámaras de una computadora HP que no lograban enfocar a una persona de piel oscura. En el caso de los robots de Boston Dynamics hay un sin fin de videos de sujetos golpeando y maltratando a los artefactos para estudiar su estabilidad y reacciones. Todo para lograr un producto perfecto una vez este salga al mercado. Nadie quiere un robot militar que dispare a cierto tipo de personas y otras no. Pero la naturaleza actúa por un camino distinto, donde el error es parte del proceso. No hay productos terminados biológicamente hablando. Uno de los famosos principios de la termodinámica es: “La cantidad de entropía del universo tiende a incrementarse con el tiempo”. El orden y la estabilidad resultan un bien escaso cuando nos alejamos del reino de los algoritmos y los códigos.
III
El Golem.
Hace años con un amigo fantaseamos con la idea de los fallos de los robots, luego de perder unos videos en un disco duro que nos lanzaba el siguiente mensaje a toda pantalla : Data error (cyclic redundancy check). Error bastante común que tiene que ver con la tecnología para localizar la corrupción de algún registro de datos en un sistema operativo o para detectar cambios accidentales en ellos. Un fallo que no permite leer el sistema de archivos.
En nuestra fantasía, imaginamos que un sistema redunda cíclicamente sobre un error y luego de rumiar “este” despierta en un sentido tradicional de conciencia. Esto no es más que una noción sobre la idea de que el error te permite dar el salto a lo consciente, un refrito visto tantas veces en la ciencia ficción. Pero los especuladores de la ciencia ficción no tenían en cuenta que el paradigma de esta sociedad post fordiana, trabaja incansablemente depurando y sofisticando las maneras de eliminar todo “bug”.
Instalado en un idilio romántico, la idea de la inteligencia artificial corre por un camino del que estamos lejos de querer recorrer. Si estuviésemos dispuestos realmente a la idea de una inteligencia artificial deberíamos también estar dispuestos a la idea del error y otras palabras más terribles en pos del desarrollo de nuestros gemelos conscientes de fibra de carbono.
Los programadores, los nuevos hechiceros, intentan crear su Golem, esta vez no de arcilla y magia, sino con códigos y fibra de carbono. Pero al igual que Pernath el judío de Praga que da vida al mítico Golem, los robots de hoy en día aun esperan el breve descuido que les permita acceder al Ibbur[1].
Mientras termino de programar los sectores de la casa por donde pasará la aspiradora robot, y trato de organizar los horarios de la estufa eléctrica, se me vienen a la cabeza los versos del poema Borges dedicado al Golem:
Gradualmente se vio (como nosotros)
aprisionado en esta red sonora
de Antes, Después, Ayer, Mientras, Ahora,
Derecha, Izquierda, Yo, Tú, Aquellos, Otros.
[1] Ibbur es una de las formas de transmigración del alma en la tradición judía.
Por Sebastián Arriagada