Las armas autonomas o robots killer. Un desafío más a la humanidad.

De Adriana Rossi

Las armas autónomas conocidas como robots killer o robots asesinos, derivación militar de los estudios y desarrollo relacionados con la inteligencia artificial, están todavía en fase experimental. Su naturaleza y peligrosidad representan sin embargo un desafío a nivel jurídico y ético insoslayable, que obliga al conjunto de las instituciones internacionales y a la sociedad civil tomar posición antes de su aparición. El debate a favor de la homologación o aplicación de un protocolo específico que reglamenta o prohíben su uso, se está llevando a cabo en Naciones Unidas, mientras desde organizaciones gubernamentales y académicas se han organizado campañas para su completa eliminación.

En el mes de agosto del 2015, el Observatorio Geopolítico de los Conflictos se hizo eco de una campaña para el cese de las investigaciones que conducirían a la posterior producción de las armas autónomas, los robots killer, sin por ello frenar el avance científico y tecnológico de la inteligencia artificial aplicada en otros campos atinentes al progreso y bienestar de la humanidad. En caso de no lograr el objetivo, los organizadores de la campaña pedían en una carta abierta, por lo menos un protocolo internacional que prohibiera su utilización. En diciembre de este año, en el marco de la “Convención sobre ciertas armas convencionales” de Naciones Unidas, se debatirá sobre el establecimiento de un grupo abierto de expertos gubernamentales con la función de armonizar y de encontrar una respuesta de la comunidad mundial sobre las armas autónomas al respecto de los principios y objetivos de la Convención.

Qué son las armas autónomas

Las armas autónomas están programadas para seleccionar y atacar objetivos estratégicos sobre la base de criterios determinados por el ser humano. Son letales y por ello serán desplegadas en escenarios de conflictos armados o donde se cometen hostilidades. A diferencia de armamentos como los drones, las armas autónomas no serán guiadas por un ser humano a través de ordenadores y pantallas, sino serán previamente preparadas para actuar sin control a distancia de acuerdo a los parámetros introducidos en la programación. Se adaptarían al entorno sobre la base de la información recabada en el ambiente en el que van a operar. Sus reglas de conductas estarían determinadas de antemano por humanos para evitar el tan temido fenómeno del autoaprendizaje. En caso de no claridad de la situación estarían programadas para no intervenir.

La peligrosidad de estas armas exige un marco regulatorio basado en el Derecho Internacional Humanitario. Los robots killer, por lo tanto, deberán regirse por una serie de principios tales como la discriminación entre combatientes y civiles -cada vez más difícil por la naturaleza de los conflictos en su mayoría intraestatales con participación de milicias no siempre identificables y que se desarrollan en zonas urbanas-, la proporcionalidad del ataque y la nocomisión de crímenes de guerra, masacres y genocidio.

Todas las armas letales que son parte de un avance tecnológico y representan una innovación en tanto que armas y métodos de guerra, están sometidas a nivel mundial a un procedimiento que empieza con el reconocimiento de las mismas, el análisis de la idoneidad según el derecho internacional vigente, para luego ser conceptualizada y ser sometida a una normativa que puede ser específica.

En el caso de los robots killer el procedimiento se da en sentido inverso, porque ni siquiera las armas existen en la actualidad y se trabaja sobre posibilidades y eventualidades y no sobre un real testeo, lo cual da lugar a opiniones e interpretaciones muy diferenciadas sobre las cuales es necesario un entendimiento.

El debate

El tema de las armas autónomas empezó a ocupar un espacio en la agenda internacional a raíz de una advertencia lanzada el 23 de agosto del 2010 por Philip Alston, Relator Especial del Consejo de Derechos Humanos de las Naciones Unidas sobre ejecuciones extrajudiciales, sumarias o arbitrarias. Ante las inquietudes suscitadas por las investigaciones, desarrollo e innovación tecnológica sobre esas armas, presentó ante la Asamblea General del Consejo, la propuesta de formar un comité mixto de representantes militares y civiles de los Estados, autoridades relacionadas a los Derechos Humanos y Derecho Internacional Humanitario, especialistas en filosofía, ética y científicos para examinar medidas a tomar, para que el uso de armas autónomas fuera sujeto a las directrices del Derecho Internacional Público.

En el 2012 Human Rights Watch y la Clínica Internacional de Derechos Humanos de la Escuela de Derecho de la Universidad de Harward publicaron un informe exhaustivo sobre el tema, Losing Humanity: the case against killer robots[1] donde se abordan los aspectos políticos, legales, morales y éticos que plantea el uso de las armas autónomas y se unieron, formando una coalición de ONGs, en una campaña a nivel mundial, Campaign to Stop Killer Robots, para su prohibición total.

En sintonía con la campaña, el 28 de julio del 2015, en la apertura de la International Joint Conference on Artificial Intelligence, IJCAI-15, en Buenos Aires, se dio a conocer una carta abierta de científicos e investigadores de la inteligencia artificial y robótica, donde se plantea la prohibición de esas armas y se invita a firmar la petición. Entre los firmantes se encuentran Noam Chomsky y Stephen Hawking.

En el 2013, la 1ª Comisión de la Asamblea General de Naciones Unidas y el Consejo Asesor de la Secretaría General, después de un debate sobre el tema, acordaron pasar a las Altas Partes Contratantes de la “Convención sobre ciertas armas convencionales”, CCW, la tarea de dilucidar la problemática, considerando que era el foro más adecuado.

En este marco, en el 2014, 2015 y 2016 se realizaron un total de tres reuniones informales de representantes de gobiernos, de organismos internacionales, de instituciones de la sociedad civil y del sector académico[2]. En la última se elaboraron recomendaciones que serán presentadas durante la 5ª Conferencia de Revisión de las Altas Partes Contratantes de la CCW en Ginebra entre el 12 y 16 de diciembre de este año. En el texto se sugiere la conformación de un grupo de expertos gubernamentales de composición abierta, que a partir del 2017 deberá trabajar alrededor de las opciones relacionadas con la nueva tecnología en concordancia con los objetivos y principios de la CCW. En el seno de la CCW ya existen protocolos referidos a diferentes sistemas de armas, algunos son de carácter prohibitivo, otros de restricción.

Los temas en discusión

Cuatro son las cuestiones clave: las definiciones, el control humano, las responsabilidades que involucran la cadena de mando de la que dependen las armas autónomas y la revisión del desempeño de las mismas.

Todavía se está discutiendo sobre la definición de autonomía, aunque parece no ser por el momento el tema central, a pesar de la insistencia de China. Para definir un arma es necesario conocer sus efectos, las funciones, uso y posibles objetivos, y como se ha mencionado anteriormente es imposible en este caso, por no existir dichas armas. A pesar de ello, Francia ha propuesto una definición de las mismas, necesaria para legislar sobre el tema. Es una definición precisa y restrictiva: las armas autónomas son sistemas móviles capaces de adaptarse a su entorno terrestre, marítimo o aéreo y de manera autónoma seleccionar un objetivo y abrir el fuego con municiones letales, sin intervención humana o validación[3].

Esto introduce dos temas fundamentales y ríspidos, el del control humano y la cadena de mando.

El tópico sobre el tipo y la calidad del control humano sobre las armas, es relevante por ser necesarios para garantizar la legalidad de las mismas. Se proponen términos como “apropiado juicio humano”, “niveles adecuados de juicio humano”, “colaboración inteligente”, “control humano significativo”. La terminología recomendada es “participación humana apropiada con respecto a la fuerza letal”. Todas estas definiciones carecen de precisión y dejan espacio a múltiples interpretaciones.

Otro tema relevante es el de las responsabilidades. Hay necesidad de que sea un humano el que toma las decisiones y establezca las reglas del combate y por lo tanto el que se haga responsable de las acciones de los robots en todos los casos, es decir siempre. Determinar dónde empieza y dónde termina la responsabilidad de los que intervienen en las actividades de los robots killer sin embargo presenta sus dificultades. Preguntas como ¿son responsables aquellos que ordenan las acciones?; ¿son responsables los programadores? o ¿lo son los que activaron las armas? no serán fáciles de contestar por el margen de error que puede existir en la toma de decisiones y en la ejecución que permite a los robots llevar adelante la tarea encomendada.

A esto se añaden unos temores como los expresados por Francia, no solamente sobre posibles conductas impredecibles de parte de las máquinas, sino sobre el hecho de que en el momento en que los robots killer son enviados al escenario de conflicto, la cadena de mando se interrumpe automáticamente, por no existir ningún vínculo de comunicación y control.

La evaluación del control humano va a poner en dificultad a quienes están en posesión de estas armas, porque en función de la transparencia que se les requeriría en el proceso de evaluación, se verían obligados a develar secretos militares que ningún país estaría dispuesto a hacer públicos (por ejemplo, en el caso de los robots que controlaran lanzamientos de misiles o armas atómicas) poniendo en riesgo seguridad y/o supremacía militar, con lo cual se vuelve difícil cumplir con los requisitos de la transparencia.

Aquí se inserta una polémica referente al juicio de valor sobre este tipo de armas. Países como Gran Bretaña consideran que los robots killer podrían ser “moralmente” superiores a los humanos. Sus decisiones no estarían afectadas por los estados de ánimo como ansiedad,  angustia, pánico y sentimientos como el deseo de venganza, que pueden obnubilar el poder decisional de los combatientes humanos, por lo tanto serían más exactas y precisas[4]. Prohibirlas sería un sinsentido.

La prohibición total tiene de todas formas sostenedores aunque pocos. Son un total de catorce países: Argelia, Bolivia, Chile, Costa Rica, Cuba, Ecuador, Egipto, Estado del Vaticano, Ghana, México, Nicaragua, Pakistán, Palestina y Zimbabwe. Son países que tampoco aspiran o pueden aspirar a tener esas armas, como, por supuesto, muchos otros que están a favor, sin embargo se prevé que la democratización de la tecnología aumentará el número de los estados en posibilidad de acceder a ellas y tentados de hacerlo.

En el campo de los que aceptan los robots killer, se manifiestan diferencias sobre la legislación que se necesitaría para reglamentarlos. Algunos países son partidarios de elaborar protocolos específicos, mientras otros consideran que no hay especificidades que los requieran, por tanto los instrumentos existentes serían suficientes y aplicables.

La sociedad civil

También en la sociedad civil existen diferencias y los debates se dan entre quienes quieren una prohibición absoluta y los que piden un protocolo específico que prohíba su puesta en obra.

Lo que está en cuestión en realidad va más allá de los riesgos y peligros debidos a errores de programación, a salida de control, al inmanejable “efecto enjambre” resultante de la utilización  masiva y coordinada de robots killer para saturar al adversario[5] y la posibilidad de que caigan en manos equivocadas. Lo que se debate son cuestiones éticas sobre el rumbo que está tomando la humanidad respecto de los conflictos armados, con el uso de la tecnología cuyo último avance serían las armas autónomas[6]. La mediación de las máquinas que salvaguardarían la vida de los combatientes, remplazándolos, deshumaniza aún más la deshumanización que implica una guerra y acostumbra a la humanidad a que ésta se parezca cada vez más a un videojuego, salvo para aquellas poblaciones que la sufren en carne propia y que quedarán profundamente marcadas si tuviesen que enfrentarse o protegerse de máquinas asesinas.

[1]Human RightsWatch (2000),LosingHumanity: the case againstkiller robots, en http://www.hrw.org/reports/2012/11719/losing-humanity-0
[2] Meza Milton (2016), Los sistemas de armas autónomos: un desafío para la comunidad internacional en el seno de las Naciones Unidas, en www.ieeee.es/Galerias/fichero/docs_opinion/2016/DIEEEO85-2016_SistemasArmas_ONU_MiltonMeza.pdf
[3]Vilmer Jean BaptisteJeangène (2016),AutonomousDiplomacy: The Geneva Debates, en https://www.ethicsandinternationalaffaires.org/2016/autonomous-weapon-diplomacy-geneva-debates, septiembre 27.
[4]Expansión economía digital (2016), Los ‘robots asesinos’, a debate en la ONU, http://www.expansion.com/economia-digital/innovacion/2016/04/26/571f58a1e2704e95298b4644.html, abril 26.
[5] Ford Chris y Jenks Chris (2016), The International DiscussionContinue: 2016 CCW Experts Meeting onLethalAutonomousWeapons, en https://www.justsecurity.org/30682/2016-ccw-meeting-laws/, abril 20.
[6]En esta dirección se inscribe la propuesta de Pakistán y Palestina de que los drones y los aparatos teleguiados deberían recibir el mismo tratamiento que los robots killer.

 

 

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *