¿Deberíamos preocuparnos por los robots “asesinos”?

La inclusión de nuevas tecnologías y drones autónomos a conflictos armados es un tema que deja grandes lagunas legales

Si alguien leyera el titular “el auge de los robots asesinos es imparable” lo más probable es que pensara que se está ante el nuevo estreno de alguna película de ciencia ficción para estas navidades, sin embargo, la sorpresa llega al descubrir que el autor de estas palabras es, ni más ni menos que Brad Smith, el mismísimo Presidente de Microsoft. Concretamente, el titular “The rise of the killer robots is unstopabble” pertenece a una entrevista que Smith concedió en The Telegraph, en la que afirma que es urgente y necesaria una nueva y actualizada Convención de Ginebra para proteger al mundo de la creciente amenaza que representan los “letales sistemas autónomos armados” que ya se están desarrollando.

Aunque en un primer momento el titular de The Telegraph pudiera indicar una rebelión de las máquinas al más puro estilo “Terminator”, lo cierto es que se refiere a la posibilidad (más que real) de que los ejércitos de muchos países comiencen a incorporar a sus filas una nueva generación de armas. Durante las últimas décadas han ido apareciendo infinidad de tecnologías civiles que no son difíciles de adaptar y modificar para fines militares.

Drones no pilotados, vehículos autónomos, sistemas de inteligencia artificial, reconocimiento facial… toda una colección de impresionantes tecnologías que, tarde o temprano, terminarán formando parte de conflictos armados. Quizá no lleguemos a ver soldados robots (parece que aún queda bastante para ese futuro) pero muchas de las tecnologías que son necesarias para desarrollarlos ya existen, y todos conocemos algún ejemplo que sería fácilmente adaptable.

Si algo nos ha enseñado la Historia es que la tecnología es simplemente una herramienta, y el ser humano tiene una querencia más que demostrada para adaptar y modificar ingenios para su beneficio en un campo de batalla. En la actualidad, podemos encontrar numerosas compañías que ya aplican estas nuevas tecnologías en un entorno armado: Estados Unidos está desarrollando el programa Squad X, basado en el uso de robots con IA en entrenamientos conjuntos con los marines, en los que estas máquinas operan de manera autónoma a menos que se les dé órdenes. Israel Aerospace Industries ha creado un misil inteligente llamado Harpy, programado para merodear durante horas hasta detectar emisiones de un sistema de radar hostil.

Desde este punto de vista, la llamada de atención de Brad Smith resulta ahora más conveniente y menos inesperada, sobre todo por los enormes vacíos y lagunas legales que estas nuevas tecnologías representan para el Derecho Internacional.

Los sistemas autónomos, dotados de inteligencia artificial y aprendizaje automático, complementados con infinidad de sensores y diferentes tipos de reconocimiento, tanto del terreno como de objetos y personas, están avanzando a un ritmo impresionante en solo unos años, y no parece que sea difícil ni inesperado aplicar estos avances tecnológicos a la industria armamentística. La preocupación de Smith, a pesar del llamativo titular de ciencia ficción con el que se presenta, es real y pronto tendremos que regular y legislar la aplicación, fabricación y uso de nuevas tecnologías militares… cuanto antes se aborde ese vacío, mejor.