El primer robot de Asimov toma decisiones éticas sorprendentes (y nefastas)

Disposicón del experimento, H-robot actúa como un humano y A-robot es el guardián. A la derecha, el área en verde es el pozo.
Disposicón del experimento, H-robot actúa como un humano y A-robot es el guardián. A la derecha, el área en verde es el pozo.

Pocos ejemplos de la estrecha relación existente entre la literatura futurista y la ciencia son más palpables que las famosas leyes de la robótica que Isaac Asimov describió en su famosísima obra "Yo Robot" (pésimamente adaptada al cine en 2004). En esta obra, compuesta por varios relatos, robots cada vez más complejos se enfrentaban a los dilemas éticos derivados de aplicar dichas leyes en sus procesos de toma de decisiones. Ser un robot de Asimov era cualquier cosa excepto sencillo, y eso precisamente es lo que acaba de descubrir un equipo de investigadores de la Universidad West of England en Bristol, Reino Unido, cuyos primitivos robots se enfrentaron a la primera ley de la robótica con resultados sorprendentes.

[Relacionado: 25 años del robot más famoso del mundo]

Recreemos el experimento de los británicos. Sobre un pequeño plano de operaciones con forma de campo de fútbol se sitúa un robot guardián programado para estar atento a lo que sucede a su alrededor. Al mismo tiempo, cuenta con otro programa separado en el que se le instruye con la idea de salvar vidas.

En un rincón del campo de futbol se habilita un área "peligrosa" que hace las veces de pozo. Luego se introduce a otro robot en el escenario, que juega el papel de un humano en movimiento cuyo objetivo es llegar a la portería. Cuando el robot guardián detecta que el "humano" sigue un rumbo que le hará caer en el agujero lo impide de una forma poco elegante pero efectiva: apartándole a empujones.

Hasta aquí todo perfecto, el robot guardián impedirá al "humano" caer en el agujero en toda ocasión, siempre (claro está) que esté lo bastante cerca como para hacerle variar el rumbo. ¿Pero qué pasa si introducimos un nuevo robot que actúe como otro humano? Ahí la cosa se complica.

Las tres leyes de la robótica de Asimov
Las tres leyes de la robótica de Asimov

En efecto, cuando el robot guardián se veía obligado a tomar la decisión de a qué humano salvar primero, titubeaba indeciso hasta el punto de paralizarse, por lo que en múltiples ocasiones no llegaba a salvar a ninguno de los dos humanos, a pesar de que contar con tiempo más que suficiente para salvar al menos a uno.

De las 33 ocasiones en que se repitió el experimento, el robot guardián sólo pudo salvar a ambos "humanos" en 3 ocasiones. En el resto de casos, pareció que el robot era incapaz de decidir (salvó a uno de los dos "humanos" en 16 ocasiones y dejó morir a ambos en otras 14 ocasiones).

[Podría interesarte: La ética de convertir seres vivos en cyborgs]

Alan Winfield, investigador principal del experimento, confirma que el resultado de la investigación les dejó a todos un poco descolocados, puesto que no se lo esperaban. "Claramente había tiempo de sobra para salvar al menos a un robot, pero casi en la mitad de las ocasiones les dejaba caer a ambos. El robot guardián se quedaba parado y fracasaba en su intento de rescatar a los humanos".

Wingfield afirma que el fin del experimento no era crear a un robot capaz de actuar éticamente, pero tras hacerle llegar los resultados del experimento a algunos filósofos y expertos en ética, algunos le apuntaron la idea de que en realidad el robot estaba actuando con una especie de "moral".

Y añade: "Muchas veces, cuando haces experimentos, los resultados más interesantes son precisamente los que no te esperas. Nuestra intención no era crear un robot ético, en realidad estábamos estudiando la idea de robots que contasen con modelos internos del mundo exterior. Simplemente añadimos a su lógica una capa de toma de decisiones a la que llamamos Motor de Consecuencia. Estas nuevas instrucciones fueron las que lograron que el robot actuase 'éticamente'".

Los resultados pueden ser interesantes de cara a la puesta en marcha - en un futuro más o menos cercano - de sistemas en los que se confíe a robots la vida de humanos. Pensad por ejemplo en coches capaces de conducir de forma autónoma.

Obviamente, en vista de los nefastos resultados, Winfield es consciente de que su propuesta de robots éticos no parece funcionar muy bien, pero se lo toman como un punto de inicio. Pretenden compartir su trabajo con otros investigadores y encontrar el modo de refinar el modelo entre todos.

A título personal, y teniendo en cuenta que en este experimento solo se ha trabajado con una de las tres leyes de la robótica de Asimov, si quieren que un servidor se atreva en el futuro a subirse a un coche conducido por robots, me temo que el trabajo que les queda por delante es largo e intenso.

[Relacionado: Quieres ganar en moralidad? Piensa en ciencia]

Podéis leer el trabajo de Wingfield, Blum y Liu en Towards an Ethical Robot: Internal Models, Consequences and Ethical Action Selection.

Me enteré leyendo Yahoo! news UK.