18/03/2024 MÉXICO

¿Los robots asesinos son una amenaza futura?

Fotograma de la película "Yo, robot" (2004) de Alex Proyas.
Captura
Los robots asesinos ya no son ciencia ficción. Expertos en robótica e inteligencia artificial aseguran que pueden ser realidad en diez o veinte años. Activistas de derechos humanos y científicos hace años que se movilizan para evitar su desarrollo. A finales de este mes, el grupo de expertos en armas autónomas letales se volverá a reunir en Ginebra para hablar de su futuro.

¿Qué son los robots asesinos?


Según el Departamento de Defensa de EE.UU., las armas autónomas letales o popularmente conocidas como robots asesinos son:

“Sistema de armamento que, una vez activado, puede seleccionar y enfrentarse a objetivos sin ninguna otra intervención de un operador humano. Esto incluye sistemas de armas autónomos vigilados por humanos que están diseñados para permitir que los operadores pasen el sistema de armas a modo manual, pero que puedan seleccionar y atacar objetivos sin mayor intervención humana después de su activación”.

Primera reunión del Grupo de Expertos Gubernamentales del Convenio sobre Ciertas Armas Convencionales sobre armas autónomas letales, mayo de 2014, en Ginebra. [Foto:  www.stopkillerrobots.org]

Esta definición es ampliamente utilizada y respaldada por Human Rights Watch. No obstante, los más de ochenta estados participantes en el Grupo de Expertos Gubernamentales en el Convenio sobre Ciertas Armas Convencionales (CCW, por sus siglas en inglés) de la ONU sobre las armas autónomas letales no consiguieron consensuar una definición en las reuniones que tuvieron este pasado mes de abril. Los conceptos más polémicos fueron “letalidad” y “autonomía”. Después de la CCW, la Unión Europea destacó que una definición preliminar de trabajo sobre este tipo de armamento sería útil para avanzar en el debate.

El año pasado, más de 100 expertos en robótica e inteligencia artificial, entre ellos Elon Musk, publicaron una carta abierta a la CCW pidiendo que se impidiera el desarrollo de los denominados robots asesinos. Estos expertos aseguran que no queda mucho tiempo para actuar y que este tipo de tecnología es como una Caja de Pandora, una vez abierta será muy difícil de cerrar. Los signatarios de la carta también destacan que las armas autónomas letales supondrán “la tercera revolución bélica”, después de la pólvora y las armas nucleares. En la carta también se advierte que una vez desarrolladas, estas armas “permitirán que el conflicto armado se dispute a una escala mayor que nunca, y en escalas de tiempo más rápidas de lo que los humanos pueden comprender”.

Por el momento, solo 26 países están a favor de prohibir los robots asesinos. El único estado que es miembro permanente del Consejo de Seguridad de la ONU y que se encuentra en esta lista es China. Sin embargo, el país asiático quiere prohibir el uso, pero no el desarrollo y la producción de este tipo de armas. Además, en la lista solo hay un país europeo, Austria.

Todos los gobiernos participantes en el Grupo de Expertos Gubernamentales de la CCW en abril reconocieron la importancia del control humano a la hora de utilizar estas armas, pero tenían opiniones distintas en referencia al momento específico del ciclo de funcionamiento de estos sistemas que deberían intervenir los humanos y en qué límites. En lo que sí están de acuerdo todos los gobiernos es en que el Derecho Internacional Humanitario (DIH) es el marco legal más adecuado para guiar las decisiones legales sobre el desarrollo o uso de las armas autónomas letales.


El Grupo de Expertos Gubernamentales se volverá a reunir a finales de este mes, del 27 al 31 de agosto.

A pocos pasos de la total autonomía

Los robots asesinos aún no existen, pero 12 estados con los ejércitos más avanzados tecnológicamente, incluidos Reino Unido, EE.UU., Israel, Rusia, China y Corea del Sur, han implementado o están desarrollando al menos 381 armas y sistemas robóticos con varios niveles de autonomía.

Un ejemplo sería los micro-drones Perdix del ejército norteamericano. El departamento de Defensa publicó el siguiente vídeo a finales de 2017 en el que se ve cómo tres aviones de combate desplegaban 103 pequeños drones hechos con impresoras 3D. Estos artefactos son autónomos y pueden volar en formación, como si se tratara de una bandada de pájaros. Los Perdix aún no están armados, pero la tecnología para hacerlo se está desarrollando.

“Los Perdix no son individuos sincronizados preprogramados, son un organismo colectivo, comparten un cerebro distribuido para la toma de decisiones y se adaptan unos a otros como enjambres en la naturaleza”, declaró William Roper, el que era en aquel entonces el director de la Strategic Capabilities Office del departamento de Defensa de EE.UU.


A finales de 2017, Corea del Sur anunció que también estaba desarrollando “enjambres” de micro-drones. Además, el país asiático tiene desplegados robots centinela en la Zona Desmilitarizada, los SGR-A1. Estos robots desarrollados por Samsung disponen de detectores de calor capaces de identificar personas a más de tres kilómetros de distancia. Es más, los SGR-A1 están equipados con una ametralladora y un lanzagranadas. No obstante, necesitan un operador humano para abrir fuego.

Un IAI HAROP en pleno vuelo. [Foto: Israel Aerospace Industries]

Por su parte, Israel ha desarrollado un dron kamikaze, el IAI HAROP. Este dron se distingue de los otros en que él mismo es la munición. El HAROP dispone de dos modos de funcionamiento: puede funcionar autónomamente con su sistema antirradar buscador o un operador humano puede seleccionar los objetivos. Este dron ya se ha utilizado en combate: en 2016, el ejército de Azerbaiyán atacó con un HAROP a un autobús lleno de “voluntarios armenios”, matando a siete, en el conflicto contra Armenia en la región de Nagorno-Karabakh.

En 2016, China ya había probado sistemas avanzados no tripulados en todos los dominios: tierra, mar y aire. Asimismo, el gigante asiático está considerando el uso de un alto nivel de inteligencia artificial y automatización para su próxima generación de misiles de crucero.

Un tanque no tripulado Nerekhta del ejército ruso. [Foto vía www.weaponnews.com]


Además, Rusia ha desarrollado varios tanques sin tripulación, entre ellos el Nerekhta. Este tanque, equipado con una ametralladora y un lanzagranadas, superó a los vehículos tripulados en los ejercicios militares, según un oficial del ejército ruso. Por si todo esto fuera poco, Kalashnikov, el mayor contratista militar del gobierno ruso, reveló que ha desarrollado un módulo de combate totalmente automatizado basado en tecnologías de redes neuronales que le permiten identificar objetivos y tomar decisiones.

Como se puede observar, las mayores potencias militares del mundo ya se encuentran en el punto de partida de una carrera armamentística para dominar lo que será la “nueva revolución” de la guerra.

Los robots asesinos y los derechos humanos

En los tiempos previos a la Segunda Guerra Mundial y durante esta, hubo varios intentos diplomáticos de prohibir los bombardeos aéreos a civiles, ya que los aviones inicialmente solo se usaban para la vigilancia en los conflictos armados. El mismo presidente norteamericano Franklin D. Roosevelt calificó a los bombardeos como “barbarie humana” y pidió a los países partícipes en la guerra que no utilizaran este tipo de ataques. Sin embargo, hoy en día es visto como algo normal que en una guerra haya aviones que bombardeen a la población civil. Esto también ocurrió con los drones. En un principio, se contemplaba el uso de los aviones no tripulados solo en operaciones de vigilancia. No obstante, no se tardó mucho tiempo en armarlos y llevar a cabo ofensivas con ellos.

Para que no pase lo mismo con las armas autónomas letales, científicos, expertos en inteligencia artificial, activistas de derechos humanos, etc. llevan años movilizándose.

Como indica la campaña Stop Killer Robots, dejar que un robot tome decisiones de vida o muerte significa cruzar una línea moral fundamental. Por muy avanzados que lleguen a ser los robots, nunca dispondrán de juicio humano ni de habilidad para entender el contexto. Según la campaña, estas cualidades son necesarias para tomar decisiones éticas complejas en un campo de batalla dinámico, para distinguir adecuadamente entre soldados y civiles y para evaluar la proporcionalidad de un ataque. Por lo tanto, consideran que las armas completamente autónomas no cumplirían con los requisitos de las leyes de la guerra.

Robot de la saga ‘Terminator’. [Foto: Dick Thomas Johnson vía Flickr]

La introducción de estos nuevos sistemas armamentísticos tiene el potencial de plantear nuevas amenazas al derecho a la vida, según el Relator Especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias de la ONU, Christof Heyns. En su informe, Heyns también advierte que los humanos, al utilizar estos mecanismos, se distanciarían más del acto de matar.

Contrariamente, varios especialistas en robótica y expertos militares consideran que los sistemas de armas autónomos serían éticamente preferibles a los soldados. Este es el caso del profesor de robótica del Instituto de Tecnología de Georgia, Ronald C. Arkin. Según el profesor Arkin, los robots podrán actuar de una forma más “humana” en el campo de batalla por varias razones: los robots no tienen instinto de autopreservación, por tanto, no tendrán una actitud de “disparar primero, preguntar después”, evitando así posibles muertes colaterales.

Arkin también señala que los robots no sienten emociones, por consiguiente, el “miedo” y la “histeria” no nublarían su juicio como pasa con los combatientes humanos que, en ocasiones, tienen comportamientos criminales como torturar o violar a la población civil.

Finalmente, Ronald C. Arkin argumenta que, en equipos compuestos por soldados humanos y robots, se podría confiar más en los robots para informar de las infracciones éticas en que podrían incurrir sus compañeros humanos.

Sin embargo, estas armas presentan otro problema: ¿sobre quién recae la responsabilidad legal de las acciones que lleven a cabo?, ¿sobre los programadores?, ¿sobre los fabricantes?, ¿sobre los comandantes? Este vacío de responsabilidad debería solucionarse y Heyns propone varias soluciones: asignar la responsabilidad por adelantado; instalar dispositivos de registro y la revisión ex post facto obligatoria de todas las imágenes en casos de uso letal, independientemente del estatus de la persona asesinada; crear un sistema de “división” de la responsabilidad entre los posibles candidatos; y añadir enmiendas a las reglas de la responsabilidad de comando.[]

Robot de la Campaña Stop Killer Robots en el día del lanzamiento de ésta en Londres, 2013. [Foto: Campaign to Stop Killer Robots vía Facebook]

Ningún software es inmune al hackeo, este es otro riesgo que plantean las armas autónomas letales. Actores no estatales, como grupos terroristas, cárteles o individuos particulares podrían hacerse con este tipo de armamento y utilizarlo para atacar al estado o a la población civil.

Además, Christof Heyns remarca que los estados con robots asesinos serían más proclives a entrar en conflictos armados porque bajarían los costes humanos, ya que no haría falta poner en riesgo la vida de los soldados. También señala que este hecho conduciría a la “normalización” de los conflictos armados entre la opinión pública nacional.

El desarrollo de estas tecnologías exacerbará aún más la asimetría existente entre el poderío de los ejércitos de los distintos estados del mundo. No es de extrañar que la mayoría de países que están a favor de prohibir el desarrollo de estos sistemas sean africanos y latinoamericanos. Asimismo, el Ralator Especial de la ONU apunta que estas máquinas podrían utilizarse para recortar derechos civiles. Los estados podrían emplearlas para reprimir enemigos internos, manifestaciones y para la “guerra” contra la droga.

Más que temer una rebelión de las máquinas al estilo a la que imaginó Isaac Asimov, la humanidad debería estar preocupada por las intenciones de las personas que utilizarán estos robots.

Ésta es una explicación sin ánimo de lucro.

¿Quieres recibir más explicaciones como esta por email?

Suscríbete a nuestra Newsletter:


Rut Turch

Móra la Nova, Catalunya. Coeditora de DDHH en United Explanations. Licenciada en Periodismo por la UAB y Posgrado en Periodismo Digital por la UOC. Me apasionan las RRII, la literatura, el cine y aprender idiomas.


Leave a Reply

Your email address will not be published. Required fields are marked *

9 + 3 =

This site uses Akismet to reduce spam. Learn how your comment data is processed.