Diseñan los primeros robots que desobedecen órdenes

En diciembre de 1940, y durante una reunión informal para conversar, se reunieron dos de los más grandes escritores de ciencia ficción de nuestros tiempos: Isaac Asimov y John W. Campbell.  En aquella charla trataron el fascinante tema de la ética y el comportamiento de los robots, un nombre que surgió veinte años antes cuando el escritor checo Karel Capek lo utilizó por primera vez en su obra RUR.

Aquel encuentro entre los dos autores fructificó dos años más tarde en la novela Runaround, en la que Isaac Asimov introducía originalmente las célebres tres Leyes de la Robótica, una serie de normas insertadas a fuego en los robots y que debían cumplir a rajatabla.

Seguro que muchos las conocéis, pero no está de más recordarlas:

1ª Ley de la Robótica: Un robot no dañará a un ser humano ni permitirá por inacción que un ser humano sufra daño.

2ª Ley de la Robótica: Un robot debe obedecer las órdenes dadas por los seres humanos, con la única excepción de que entre en conflicto con la 1ª Ley.

3ª Un robot debe protegerse a sí mismo, siempre que respete la dos leyes anteriores.

El contenido y el orden prioritario de estas tres leyes fueron la esfera fundamental en la que se movieron los robots en el mundo de ficción de Asimov. 

Sin embargo estas normas no han quedado solamente en la literatura puesto que el avance de las tecnologías ha hecho que en la actualidad muchos ingenieros hayan intentado incluirlas o adaptarlas a la hora de diseñar los intrincados algoritmos del software de robots actuales.

[Relacionado25 años del robot más famoso del mundo]

A simple vista, podría parecer que diseñar un robot capaz de desobedecer las órdenes humanas no es buena idea, y aún así, eso es exactamente en lo que están trabajando los ingenieros del Human Robot Interaction Laboratory (HRI Lab) y por lo que vemos en su última nota de prensa parece que lo están consiguiendo.

En el siguiente video podemos observar cómo uno de sus desarrollos robóticos acepta órdenes de su ingeniero, hasta que el humano le pide algo peligroso que podría poner en riesgo su integridad. Primero el instructor pide al robot que se siente: El robot obedece. Después le pide que se levante y tampoco hay objeciones. Sin embargo, cuando le pide que se mueva hacia adelante, el robot se niega explicando que es peligroso y puede caer. La negativa del robot es firme hasta que el humano le promete que le sujetará antes de que caiga.

Veamos…

Otro ejemplo de interacción “desobediente” de HRI Lab lo tenemos en otra de las pruebas grabadas. En ella el humano ordena al robot moverse hacia adelante, algo a lo que el robot se niega puesto que detecta un obstáculo en la trayectoria. El robot no se mueve hasta que recibe la explicación de que ese obstáculo no representa un peligro puesto que “no es sólido”.

Las actuaciones de los robots en los videos proporcionados por HRI Lab supondrían una modificación sustancial de la segunda Ley de la Robótica de Asimov puesto que abren la posibilidad a una desobediencia a las órdenes humanas a favor de la tercera Ley que indica que el robot debe protegerse así mismo de posibles daños.

También es cierto que sabiendo cómo somos los humanos, los futuros robots deberían ser capaces de cuestionar determinadas órdenes que, bien podrían ser erróneas o peligrosas, o bien podrían ir en contra de las tres leyes sobre las que se han diseñado. No obstante aún queda un largo camino en esta materia como ya vimos hace un tiempo en el artículo titulado: “El primer robot de Asimov toma decisiones éticas sorprendentes (y nefastas)

Aún queda mucho por mejorar.

Referencias científicas y más información:

IEE Spectrum: “Researchers Teaching Robots How to Best Reject Orders from Humans

Web oficial de Human Robot Interaction Lab