Adiós a la oportunidad de prohibir los robots asesinos

 


La imagen del soldado en el desierto de Nevada manejando un dron que bombardea objetivos en Afganistán podría comenzar a ser sustituida, reemplazándose a ese soldado por el uso de Inteligencia Artificial (IA). El pasado mes de marzo, en el seno del Consejo de Seguridad de la ONU, ya se deslizó que el primer ataque por una aeronave totalmente desatendida podría haberse producido en Libia. La era de los “robots asesinos”, como ya son nombrados, está aquí.

El uso de las armas autónomas, es decir, aquellas sin intervención humana o con una supervisión mínima, está cobrando peso y, a medida que lo hace, también la polémica asociada. Este ha sido uno de los asuntos abordados durante la última Convención sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) en Ginebra con puntos de vista enfrentados.

Desde 2013, 85 países vienen abordando los sistemas de armas autónomas letales en este marco y en esta sexta conferencia de CCW se ha presentado un exhaustivo informe de Human Rights Watch y el Harvard Law School International Human Rights Clinic. En él se expone la necesidad de un tratado sobre ello para aclarar y fortalecer el derecho internacional humanitario.

Las preocupaciones legales, éticas, de responsabilidad y de seguridad se agolpan en torno a esta cuestión. Muchas de estas armas letales funcionan a base de IA y de la información que recogen a través de sus sensores, sin apenas intervención humana, algo que escandaliza tanto que como preocupa a sus detractores.

Peter Maurer, presidente del Comité Internacional de la Cruz Roja (CICR), ha sido otra de las voces más duras contra este tipo de armamento. Maurer recordó que son ya ocho años los que se lleva discutiendo sobre los sistemas de armas autónomas. Durante este tiempo, el responsable del CICR afirmó que no sólo se comprende ahora mejor los riesgos humanitarios, legales y éticos, sino que también se está en mejor posición para plantear las graves consecuencias que pueden tener para los civiles y los soldados fuera de combate.

Por este motivo, el CICR demandó una respuesta internacional urgente y eficaz que aborde estos riesgos y, por abordar, entiende prohibir los robots asesinos. En su intervención, Maurer cargó contra las armas no autónomas por entender que son impredecibles; ni siquiera existe en la actualidad una regulación estricta sobre su diseño.

“Las tendencias actuales y el rápido desarrollo de armas autónomas, con las que se ataca a personas, especialmente en pueblos y ciudades, sin apenas supervisión humana, significan que estamos en peligro de no actuar a tiempo para evitar la pérdida del control humano sobre la vida y sobre las decisiones de muerte”, afirmó Maurer.

Organizaciones como Stop Killer Robots mantienen desde hace años una dura oposición contra este armamento. Su responsable de comunicación, Clare Conboy, lamentó que “el ritmo de la tecnología está empezando a superar el ritmo de las conversaciones diplomáticas”. Y así ha sido también esta vez, dando al traste con su esperanza antes de la cumbre de aprovechar “una oportunidad realmente única para que los Estados tomen medidas para regular y prohibir la autonomía en los sistemas armamentísticos, lo que en esencia se traduce en robots asesinos o sistemas de armas que funcionarán sin un control humano significativo”.

A favor de la prohibición se posicionó el Grupo de Expertos Gubernamentales (GGE) de la CCW sobre sistemas de armas autónomas letales, compuesto por Argentina, Costa Rica, Ecuador, El Salvador, Palestina, Panamá, Perú, Filipinas, Sierra Leona y Uruguay. Brasil, México y Chile, Irlanda o Austria también apoyaron la postura de prohibición expuesta por el CICR, así como Nueva Zelanda, que siempre ha sido uno de los grandes detractores de estas armas.

Otros países como China, mantuvieron una postura ambigua al respecto, mientras que Portugal abogó por elaborar un documento no vinculante. Quienes sí se definieron claramente, pero en contra de cualquier prohibición, fueron India, Israel, Reino Unido, Rusia y EEUU, que aseguran que con el derecho internacional humanitario es más que suficiente, sin que sea necesario un nuevo tratado vinculante.

Lo cierto es que no es así. Especialmente desde el 11-S, la Casablanca ha hecho un uso intensivo de ataques con drones, dejando decenas de muertos civiles a sus espaldas y las denominadas “muertes extrajudiciales”, esto es, asesinatos selectivos en zona fuera de guerra de supuestos terroristas no juzgados. Uno de los últimos ataques polémicos tuvo lugar el pasado mes de agosto, cuando un dron de EEUU atacó un camión en Kabul pensando que pertenecía al ISIS y terminó asesinando a diez civiles, siete de ellos niños. Desde el Pentágono se calificaron los hechos de “trágico error”. Ni sanciones, ni reprimendas. Así funciona el el derecho internacional humanitario que EEUU considera suficiente.

En el caso de España, tal y como recuerda Human Rights Watch en otro de sus informes, en 2018 nuestro país no sólo negó poseer sistemas de armas autónomas letales, sino que afirmó no tener ninguna intención de desarrollarlos o adquirirlos en el futuro. A pesar de ello, y de haber manifestado que "todas las armas letales con algún grado de autonomía deberían estar sujetas a control humano”, España no apoya las propuestas para prohibir las armas totalmente autónomas.

Como medida paliativa, desde el Departamento de Estado estadounidense se indicó que se promoverá una especie de código de conducta no vinculante sobre el uso de sistemas autónomos de armas letales (LAWS por sus siglas en inglés), algo que no por ser esperado ha sido menos indignante para quienes quieren poner límites a estas armas autónomas. Estas posturas enfrentadas y con las esperanzas por los suelos de haber alcanzado una nueva Convención de Ginebra como la de 1949, dan lugar a un escenario en el que unos países continuarán desarrollando y utilizando armas autónomas que otros consideran incompatibles con el derecho internacional humanitario. Y eso es una muy mala noticia, como las víctimas inocentes que ya se han cobrado estas armas.

Next Post Previous Post

Sin comentarios