Robots de combate, ¿hasta dónde debe llegar la intervención humana?

Cuando se habla de un robot de combate o más específicamente de un Sistemas de Armas Autónomas (AWS en sus siglas en inglés) su definición puede variar considerablemente dependiendo del grado de independencia que muestren dichos sistemas.

Por otra parte, en los SARMO (siglas en inglés de algo que se podría traducir como Detectar y Reaccionar Ante Objetivos Militares) se incluyen armas como el Phalanx y el C-RAM preparadas para responder a ataques de la artillería enemiga y a las amenazas que los misiles puedan plantear.

Estas máquinas pueden seleccionar objetivos y entrar en combate sin la supervisión de un ser humano.

Hay robots preparados para responder contra ataques de artillería y misiles

Sin embargo, esto no supone que sean totalmente autónomas puesto que no toman decisiones en sentido estricto, sino que ejecutan un conjunto de tareas para las que han sido previamente programadas.

Dispondrían de una autonomía semejante a la de un robot de una cadena de montaje que se dedica a soldar las piezas de un automóvil, de acuerdo al criterio de Engadget.

Precisamente esta publicación aseguró que los robots capaces de seleccionar, identificar y entrar en combate contra enemigos previamente seleccionados por ellos sin que medie intervención previa de un ser humano pueden ser cosa del futuro, pero no del presente.

Las máquinas capaces de entrar en combate sin intervención previa del ser humano no forman parte de nuestro presente

El estado actual de las cosas no se debe, sin embargo, a la falta de ganas. China, Reino Unido, Israel, Rusia y Estados Unidos trabajan en lo que seguramente serán precursores directos de esta especie de terminators que podrán tomar sus propias decisiones.

En 2014 el Comité Internacional para el Control de Armas Robóticas (ICRAC, en sus siglas en inglés) pidió ante un encuentro de expertos de la ONU un marco regulador para este tipo de armamento.

En el escrito del Comité, fechado el 14 de mayo de ese año, se recordó que en general este tipo de armas se habían usado hasta entonces en entornos controlados y por tanto las consecuencias de su uso podían ser más predecibles, por lo que el riesgo para los civiles era muy bajo.

"combate alemán robot"
Robot del Ejército alemán. /Tuelp (Wikimedia).

Además se alertaba del peligro que entrañan las “armas con una autonomía total” y los retos que suponen para el derecho internacional humanitario, ya que a su juicio este tipo de máquinas, aseguraron, eran “incapaces” de efectuar tareas como las siguientes:

-Distinguir entre objetivos militares y no militares, además de ser capaz de diferenciar personas y objetos.

-Determinar si es legítimo o no fijar determinado objetivo.

-Tomar decisiones de forma proporcional.

-Adaptarse a circunstancias cambiantes.

-Manejar situaciones para las que no han podido prever una respuesta por anticipado.

-Enfrentarse a otros sistemas autónomos que han sido programados para el combate con algoritmos desconocidos para ellos.

Las armas con una autonomía total plantean retos al derecho internacional humanitario

El ICRAC instaba a que hubiera un “control significativo” del ser humano sobre estas máquinas y estableció tres principios que debería reunir este tipo de control para que resultara eficaz.

En primer lugar, sería necesario un comandante en jefe o al menos un operador que se pusiera a los mandos con pleno conocimiento del contexto y de la situación del área donde se mueve el objetivo a batir.

En segundo lugar, debe existir una participación “consciente y activa” en el ataque y una deliberación previa “suficiente” en torno a lo apropiado de dicho ataque, la importancia del objetivo, etcétera.

Por último, se debe disponer de los medios suficientes para abortar o aplazar la operación rápidamente.

"combate DARPA robot"
Prototipo de robot desarrollado por DARPA. /Wikimedia.

Un par de años antes, en 2012, el Pentágono emitió la directiva 3000.09 que obliga a que “los sistemas armamentísticos autónomos y semiautónomos sean diseñados” de tal forma que permitan a “los comandantes en jefe y operadores” disponer de un margen “apropiado” de participación en la toma de decisiones.

Las exigencias del ICRAC contrastan con los términos generales en los que se mueve, por ejemplo, esta directiva. Noel Sharkey, profesor de Inteligencia Artificial y presidente de ICRAC lamentó esta situación en declaraciones a Engadget.

El Pentágono estableció en una directiva que debía darse un margen «apropiado» a la intervención humana

Respecto a la autonomía de los robots de combate, destacó que en los últimos cuatro años, justo desde que el ICRAC empezó a hacer campaña en la ONU, se ha oído a menudo esa primesa de “todo estará controlado por humanos” sin que “se mencione la forma en que se ejercerá ese control humano”.

En este sentido, considera que la fórmula “un control apropiado” utilizada en la directiva del Pentágono conduce a “un callejón sin salida” en la atribución de responsabilidades ya que las mismas dependerán de cómo se defina ese control.

"combate robots humanoides calaveras"

Resulta ilustrativo como poco la respuesta que un portavoz del Departamento de Defensa dio a Engadget cuando desde este medio le preguntaron por este asunto.

Primero recordó las palabras del vicepresidente de la Junta de Jefes de Estado Mayor en el Senado quien aseguró que no veía razonable encargar a los robots la decisión de arrebatar la vida a un ser humano.

Después, reconoció que si países como China o Rusia desarrollaran Sistemas de Armas Autónomas controladas por Inteligencia Artificial, entonces el Pentágono tendría que «ponerse a su altura con soluciones» que permitan “una respuesta mucho más rápida” que el actual método de tener a un ser humano “al tanto” de la operación.

Los tratados internacionales de prohibición en este tipo de armas podrían funcionar si todos se adhieren a ellos

El presidente de ICRAC sugirió entonces “prohibir totalmente” este tipo de robots de combate ya que se había abierto la caja de Pandora.

Ante esto, Engadget recordó el modo de razonar del portavoz del Departamento de Defensa estadounidense, y concluyó que los tratados internacionales de prohibición son estupendos siempre y cuando todos se adhieran a ellos.