Hasta hace tres años, el doctor Michael Szollosy se dedicaba a la Psicología, la Literatura o los Estudios Culturales. ¿Qué pinta un perfil como el suyo en el departamento de robótica de la Universidad de Sheffield? En su despacho, entre máquinas y cables, encontramos a un canadiense sonriente con el que estuvimos hablando de robots, miedos, progreso y ficción.
La investigación robótica está en constante progreso, ¿en qué punto nos encontramos?
Es un punto interesante porque estamos en un momento en el que la tecnología está alcanzando al hype, a las expectativas generadas. A finales del siglo XX hubo una ebullición de ideas y proyectos, de “en el futuro podremos hacer tal cosa o tal otra…”, y hoy en día hemos llegado al punto de poder cumplir algunas de las promesas que se hicieron.
¿Cómo por ejemplo?
Los asistentes personales. O robots que pueden operar en un quirófano. O poder manejar robots a distancia mediante realidad virtual. Ahora bien, dicho esto y siendo totalmente honesto, no estamos ni de lejos tan avanzados como mucha gente piensa. Recuerdo que cuando empecé a trabajar en Sheffield Robotics hace tres años estaba todo el rato como “¡¿Podemos hacer esto?! ¿Y esto otro también? ¡Guau!”. Pero entonces con el tiempo pasé a preguntar “¿Por qué no podemos hacer eso otro? ¿Y esto tampoco?”. La tecnología no ha avanzado lo suficiente como para alcanzar la singularidad tecnológica.
¿Singularidad tecnológica?
La singularidad es un concepto de física cuántica, y consiste en el punto en el que quedas absorbido por la fuerza gravitatoria de un agujero negro y ya no hay escapatoria, solo puedes precipitarte cada vez más rápido al vacío. Cuando hablamos de robots, la singularidad tecnológica es el punto de no-retorno de la IA o Inteligencia Artificial. Es el momento en el que la IA empezaría a construirse a sí misma más allá de los límites a los que llegamos los humanos.
¿Las investigaciones están cerca de llegar a este punto?
A pesar de lo que dicen muchos, no. Aunque los robots pueden hacer una cantidad masiva de cosas, hay muchas otras que no debido a un problema de adaptabilidad. Nuestro cerebro está muy bien hecho y eso permite, por ejemplo, que tú y yo estemos hablando ahora y entendiéndonos a pesar del ruido que nos rodea. De hecho, ni siquiera somos conscientes de todo este ruido porque nuestro cerebro se focaliza en el interlocutor. Los robots no pueden hacer eso.
Ante un problema nuevo un robot no puede reaccionar, no tiene creatividad
¿Cómo sería el caso de un “cerebro robot”?
Un robot en este caso absorbería todos los datos de los sonidos del ambiente, y no podría discernir cuáles son los importantes y cuáles no. Los robots no “entienden”, sino que simplemente almacenan: si tú le muestras a un robot una silla, podrá reconocerla, pero no será capaz de reconocer otra silla diferente. Esto es porque no puedes introducir el concepto abstracto “silla”, sino que tendrías que conseguir que la máquina almacenara los datos de todas y cada una de las sillas que existen. Otra cosa que actualmente es imposible de conseguir es creatividad: ante un problema nuevo, un robot es incapaz de reaccionar.
Desde esta perspectiva la IA robótica parece bastante estúpida…
Bueno, sí y no. Porque lo que ocurre es que el proceso de almacenamiento de datos es increíblemente rápido. En el caso de la silla, a un robot no le supondría demasiado problema almacenar los datos de todas las sillas existentes. Es un proceso de aprendizaje diferente al humano pero al mismo tiempo también es tremendamente eficaz.
El robot que llega a pensar por sí mismo y se rebela contra los humanos es uno de los tópicos de la ciencia ficción. De acuerdo a lo que dices, ¿qué hay de real en eso?
Nada, es pura ficción. No hay nada que sustente el miedo absurdo de que el avance robótico lleve a construir máquinas tan parecidas a los humanos que la barrera se desintegre. En este sentido, en realidad lo que obras de ficción como “Blade Runner” o “Terminator” están mostrando no es lo que ocurre con los robots, es lo que ocurre con los hombres.
¿En qué sentido?
Vamos a pararnos en Terminator, por decir uno de los ejemplos más famosos. El robot de Schwarzenegger es una máquina de matar, pero no tiene nada que ver con los robots militares reales: en el mundo real, a un arma nunca le pondrás cara, y desde luego no va a ser bípedo. Los robots de combate no tienen piernas, sino orugas, como un tanque. Con esta explicación me refiero a que si Terminator tiene forma de hombre, es porque lo es: es una versión de todo lo malo que hay en nosotros y que no queremos reconocer. El miedo real que presentan películas como Terminator no es que los robots sean cada vez más humanos, sino que los humanos seamos cada vez más robots.
Ahora que dices esto, ponerle cara a los robots es otra constante de este tipo de películas y también se da en la realidad, ¿por qué este ansia de querer que las máquinas se nos parezcan?
Es un fenómeno que llamamos antropomorfización, y la razón es que los humanos creamos instintivamente relaciones con todo lo que nos rodea, aunque sea con objetos. Por eso, por ejemplo, nos enfadamos con nuestro ordenador y hasta le decimos cosas cuando se cala o no funciona bien. Somos así, proyectamos nuestra humanidad en los objetos. Hay un experimento muy interesante de 1944 que consiste en un video en el que unas formas geométricas se mueven sobre fondo blanco. Instintivamente, al verlo, nuestra mente construye una historia, atribuimos personalidad a esos triángulos.
Y por tanto, cuando le ponemos cara a un robot…
Estamos buscando crear este tipo de relaciones. Pero es que además es muy fácil: para ver una cara, lo único que necesitamos son dos puntos y una raya. Tener algo a lo que agarrarnos para construir una relación, aunque sea con un objeto inanimado, nos hace sentir mejor. ¿Conoces la teoría del valle inquietante?

No, ¿en qué consiste?
Es una hipótesis según la cual cuanto más parecido a un humanos sea un robot, más familiaridad cogemos con él, con una excepción. Se mide con una gráfica que muestra como el grade de aceptación va ascendiendo a medida que los robots parecen más humanos hasta un punto en el que de repente cae en picado y vuelve a subir poco después. Esta caída y repunte es el valle inquietante, el momento en el que dejamos de sentirnos cómodos con el parecido y este pasa a darnos miedo y a causarnos rechazo. Pasado este umbral, si el robot en cuestión es indistinguible de un humano, la empatía pasa a ser máxima.
A este último punto no hemos llegado todavía, ¿no?
Siendo realistas, no hay ningún robot actual que puedas confundir con un humano. Y mira que se ha intentado: hay algunos robots muy avanzados con cara y con un número ridículamente alto de mecanismos bajo la piel para simular las contracciones de los músculos de la cara y fingir emociones. Realmente pueden llegar a dar miedo del parecido que consiguen, pero no hay forma de que pienses: “oh, es humano”.
De todas formas sigue siendo bastante inquietante…
Sí, pero el problema que se suele pasar por alto cuando hablamos del miedo a los robots indistinguibles de los humanos es que la decisión es nuestra. Si no queremos crear máquinas que no puedas diferenciar de un hombre o una mujer, no lo haremos. Un campo de trabajo muy fuerte ahora mismo es la creación de unos principios éticos comunes para la robótica.
No es posible hoy en día crear un robot que podamos confundir totalmente con un humano
Ya que hablábamos de ciencia ficción, ¿estos principios éticos tienen algo que ver con las famosas tres leyes de Isaac Asimov?
En parte sí. Históricamente, las historias de robots en realidad son actualizaciones del relato de Frankenstein, en el que un humano crea un ente viviente que supera a su creador y se independiza. Viendo este panorama, Asimov se inventó las tres leyes como un mecanismo contra esta situación, y de hecho no son nada absurdas: cuando nos reunimos para ponernos de acuerdo en la creación de este código del que te hablo, empezamos con las leyes de Asimov. Que los robots no maten a otra gente es un buen principio. Por otro lado, también es cierto que Asimov escribía ficción sobre robots infinitamente inteligentes, totalmente independientes, capaces de sentir… pero los robots que somos capaces de crear realmente no tienen capacidad de decidir nada, no son libres, así que es absurdo pensar en ética robótica. Un dron no mata gente si no hay alguien al otro lado que le dice a quién matar, cómo y cuándo. Por ahora, las leyes que se aplican a los robots son las leyes que se aplican a los humanos. La ley “no matar” incluye “no construir robots que maten”.
¿Ha habido investigación en desarrollar IA con aprendizaje emocional?
Ha habido, pero la razón por la que construimos robots e investigamos si pueden aprender es para saber más acerca de cómo aprendemos los humanos, acerca de cómo funciona nuestro cerebro. En el fondo no se trata de los robots sino de los humanos: utilizamos estas máquinas tan sofisticadas para entender y experimentar nuevas experiencias y conocimientos de nosotros mismos. Además, tampoco veo que haya mucho interés en este impulso romántico de crear seres inteligentes, de ser dioses.
Sí, eso es muy peliculero…
En Europa en general solemos centrarnos en crear robots que cumplan una función, que resuelvan problemas específicos. ¿Queremos saber cómo aprendemos los humanos? Creemos un robot que aprenda y podremos observarlo. ¿Hay quien necesita compañía pero no es capaz de cuidar de una mascota real? Creemos una mascota robótica. O mesas pensantes que respondan a nuestras necesidades. Aunque las diferencias culturales también implican diferencias en la robótica.
¿En qué sentido?
En las culturas de tradición cristiana o monoteísta no solemos crear robots con el objetivo de que sean igual que los humanos, sino pensando en la funcionalidad. No cruzamos el valle inquietante que te decía, y tal vez sea por la concepción del alma como algo unitario, cerrado. En países de tradición budista o sintoísta, como Japón, creen que cada cosa tiene su alma, tiene algo espiritual. Allí están obsesionados con crear robots que parezcan vivos. De hecho, un ejercicio interesante es entrar en Google, teclear “japanese robots” y ver las imágenes que arroja en los resultados. Luego hacer lo mismo con “European robots” y “USA robots”. Una búsqueda tan superficial como esta ya nos permite ver que son tres concepciones totalmente distintas.
¿Por qué?
De Japón no tengo ni idea, no lo entiendo. Lo que sí puedo entender, porque conozco la historia y la cultura, es el porqué de los robots occidentales. Entiendo la influencia de la Revolución Industrial, de la obra de los poetas y artistas reaccionando a ello, de la Ilustración… Todo eso influye en entender por qué nuestros robots son así.