Los robots soldado: ¿harán un mundo más seguro?

En 1942 Isaac Asimov publicó un cuento llamado “Runaround” que contenía las ya legendarias Tres Leyes de la Robótica. La número uno es: Un robot no puede hacer daño a un ser humano o, por omisión, permitir que se le haga daño a un ser humano”.

Robot Kalashnikov

Imagen 1 De 7

Los robots tomarán las armas por nosotros

En agosto de 2017 más de 100 expertos en IA, liderados por Elon Musk (fundador de SpaceX), publicaron una carta abierta al Departamento sobre Armas Convencionales de las Naciones Unidas, en la que se alertaba de los peligros del empleo de la inteligencia artificial en la fabricación de material de guerra.Las armas letales autónomas podrían ser la tercera revolución en la guerra. Una vez que se hayan desarrollado permitirán conflictos a una escala más grande que nunca y con una velocidad incomprensible para los humanos”.

Podría parecer que estamos hablando de ciencia ficción, pero los sistemas autónomos de armas letales (LAWS por sus siglas en inglés), también llamados “robots asesinos” ya están siendo utilizados. Por ejemplo, en la zona desmilitarizada entre Corea del Norte y del Sur, el Samsung SGR-A1 (no es un móvil) escanea el horizonte en busca de intrusos. Rusia es otro país que está inmerso en el desarrollo de armas autónomas como el Soratnik, un tanque robotizado de siete toneladas.

Robots asesinos

Por ahora los sistemas autónomos son caros y poco comunes. Sin embargo, a medida que vayan bajando los costes, esta tecnología se podría usar de manera intensiva en las cuestiones relacionadas con la seguridad. Hay quienes dicen que ello ayudaría a salvar vidas. “Se podrían reducir las bajas en los conflictos. Es mejor perder un dron que una persona”, explicó el Dr. Peter J. Bentley, del University College London. Es evidente que por muy caro que sea un cacharro “inteligente” nunca se podrá comparar con una vida humana. Además, un soldado capturado implica multitud de posibilidades, mientras que no es muy posible que se acabe torturando a un robot enemigo.

Los sistemas autónomos pueden ser mucho más precisos que los bombardeos que se han utilizado en guerras pasadas, en las que se ha llegado a borrar del mapa a una ciudad entera. “Las armas inteligentes pueden atacar los objetivos de forma mucho más precisa. Antes se bombardeaba de forma indiscriminada”, dijo Bentley.

No todos están de acuerdo que haya más ventajas que desventajas. Ya que es mejor perder un dron que una persona, estoy podría hacer que las guerras sean más probables. “Es mucho más fácil enviar a un sistema autónomo a un área hostil para que realice una misión que mandar a seres humanos. Si éstos pierden la vida o son capturados ello puede tener implicaciones políticas para el gobierno”, explicó el profesor J. Mark Bishop del Centro Tungsten para Análisis Inteligente de Datos de Goldsmiths. El empleo de robots puede hacer que los países se lo piensen menos al optar por la violencia.

Otro problema es que los sistemas autónomos de armas letales (LAWS) deben estar protegidos para que no puedan ser “hackeados” por terceros. Ya ha habido casos en los que a los drones se les ha dado información falsa sobre el lugar donde aterrizar. En 2011 se dijo que un dron americano de vigilancia fue obligado a aterrizar en Irán. En Estados Unidos se prohibió a partir de agosto de 2017 el empleo de drones DJI por problemas de seguridad. El ejército de aquel país prohibió el empleo de estos drones de fabricación china debido a unos riesgos relacionados con la ciberseguridad que nunca fueron especificados.

Juegos de guerra complejos

Los sistemas de IA no siempre son precisos. La inteligencia artificial se ha empleado sobre todo en áreas muy estructuradas pero la vida es mucho más compleja. Se ha hablado a menudo de los éxitos de jugadores de IA en Go, pues un sistema de inteligencia artificial derrotó al campeón después de una serie de partidas. Sin embargo, la IA no lo hizo tan bien en StarCraft, un complejo juego de estrategia.

Robots asesinos

La IA funciona mejor en juegos más estructurados como Go, donde hay un número limitado de movimientos. Si hay más variables la inteligencia artificial ya no es tan efectiva, porque el sistema carece de la toma de decisiones de acuerdo con el contexto. Se dio el caso de que un robot de seguridad se “ahogó” en un pequeño estanque que había de adorno, cuando el algoritmo falló a la hora de detectar la superficie. El mundo real es caótico y todavía la IA tiene dificultades para responder de forma adecuada.

Una de mis preocupaciones son las consecuencias derivadas de un sistema de IA que sea un poco ‘tonto’. En 2011 dos bots de IA se enzarzaron en una puja por el libro “The Making of a Fly” de Peter Lawrence y superaron los 23 millones de dólares (19,4 millones de euros). Lo que nunca habría hecho un ser humano”, comentó Bishop. Los sistemas automáticos reconocen los números pero no siempre las sumas. Imagínate que este “pique” en vez de pujando se hubiese producido entre dos robots autónomos armados hasta los dientes. Otra preocupación añadida es que estos “robots asesinos” caigan en manos de criminales o terroristas.

“Bajo control humano”

En 2015 un grupo de expertos en IA publicó una carta durante la Conferencia Internacional sobre Inteligencia Artificial en la que hacían hincapié en que el peligro de la existencia de guerras basadas en la IA era algo muy real. “Comenzar una carrera armamentística sobre la tecnología de la IA es una mala idea. Habría que prohibir el empleo de armas autónomas que no estén sometidas a un estricto control humano”, aseguraron estos expertos.

A pesar de la mejorar en la precisión y en la respuesta, los sistemas autónomos de armas letales siguen sin tener la capacidad de tomar decisiones de acuerdo con el contexto, además de carecer de la capacidad de razonamiento deductivo de los seres humanos. Podrían reducir el número de bajas pero también podrían hacer las guerras más peligrosas de lo que son ahora, sobre todo si la tecnología cae en las manos erróneas.

Si te ha gustado esta noticia y quieres más, date de alta en nuestra newsletter: