Trazando límites de guerra en torno a la legalidad de los “robots asesinos”

Escrito por: Sean Welsh, candidato a Doctor en Ética Robótica en la Universidad de Canterbury para theconversation.com

Traducido por: resumen.cl

El futuro de los sistemas de armas letales autónomos (LAWS), comúnmente nombrados en la prensa como "«robots asesinos» continúa siendo incierto después de una reunión de una semana en Ginebra para examinar su legalidad.

Mientras que el debate en torno a los LAWS en Ginebra fue mucho más profundo que en discusiones anteriores, las definiciones clave necesarias para establecer protocolos de restricción permanecen inciertas y en un intenso debate. Y con naciones como el Reino Unido oponiéndose abiertamente a la prohibición, un protocolo puede llegar a ser bloqueado completamente, para gran disgusto de los activistas.

Los británicos dicen que el derecho internacional humanitario existente (IHL) es suficiente para regular los LAWS. Si bien hubo un acuerdo universal entre las delegaciones de que los principios clave del (IHL) tales como la distinción, proporcionalidad y precauciones en el ataque se aplican a los LAWS, había grandes diferencias de opinión en cuanto a si las máquinas pueden ser programadas para tales distinciones.

El Reino Unido ha adoptado la opinión de que en el futuro, la programación podría representar una forma aceptable de control humano significativo, y la investigación de tales posibilidades no debe ser preventivamente prohibida. Y que en el futuro, podrían incluso reducir las bajas civiles. La República Checa (aliada de la OTAN) también expresó cautela sobre la prohibición. Sin embargo, otras naciones como Cuba y Ecuador reiteraron sus llamados para una prohibición.

taranis_drone.si

Vehículo aéreo de combate no tripulado «Taranis»

Abajo con los robots.

Aún así, para la Campaña Stop Killer Robots, la oposición británica es sin duda una de las principales preocupaciones. El Reino Unido tiene un veto en el Consejo de Seguridad de la ONU. Aliados británicos como Australia y los EE.UU. podrían negarse a apoyar una prohibición. Las líneas de batalla se han elaborado. Las definiciones serán críticas.

Claramente, los británicos defenderán sus intereses nacionales en tecnología de drones. El Taranis el drone stealth más sofisticado y con el mayor rango de ataque desarrollado por la compañía multinacional de defensa BAE Systems, es un probable candidato para algún tipo de "estado del arte" con respecto a la autonomía letal.

Curiosamente, BAE Systems también está en el consorcio que desarrolla el F-35 Lightning II, del que se dice que es el último avión de combate tripulado que será construido para la Fuerza Aérea de EE.UU. Tarde o temprano habrá una "pelea de perros" entre el F-35 y Taranis. Será el equivalente de la fuerza aérea de Kasparov v/s Deep Blue. A largo plazo, la mayoría de los analistas creen que la guerra aérea seguirá el camino del ajedrez y que los pilotos humanos serían incapaces de sobrevivir a las nuevas prestaciones de los aviones de combate.

Cuestiones de definición.

En la reunión de Ginebra, muchas naciones y expertos apoyaron la idea de "control humano significativo" en los LAWS, incluida Dinamarca y Maya Brehm, de la Academia Internacional de Leyes Humanitarias y Derechos Humanos de Génova. Aunque otros, como Francia y el ex primer ministro británico y ex comodoro de aire, W.H. Boothby, pensamos que esta idea es demasiado vaga.

Los israelíes señalaron que «incluso aquellos que optan por utilizar la frase ‘control humano significativo’, tienen diferentes interpretaciones de su significado». Algunos dicen que esto significa «control humano o la supervisión de cada acción dirigida en tiempo real». Otros sostienen «que un ser humano modifique la configuración de ciertas limitaciones en la forma en que un sistema autónomo letal operaría, también puede equivaler a control humano significativo «.

Es quizás un poco decepcionante que después de dos reuniones, las definiciones básicas que serían necesarias para redactar el Protocolo VI de la ONU de la Convención Sobre Ciertas Armas Convencionales (CCW) para regular o prohibir LAWS, aún permanezca en una nebulosa.

Sin embargo, el Relator Especial de la ONU sobre ejecuciones extrajudiciales, sumarias o arbitrarias, Christoph Heyns, ha quedado impresionado por la velocidad y también la «creatividad y vigor» que varios organismos han traído a los debates.

La mayoría de las naciones aceptan que las «armas totalmente autónomas» que podrían operar sin «control humano significativo» no son deseables, aunque no hay acuerdo sobre el significado de «autónomo» tampoco. Algunos estados, como Palestina y Pakistán, están contentos de poner a los drones en esta categoría y pasar a prohibir su producción, venta y uso ahora. Otros, como Dinamarca y la República Checa, sostienen que los sistemas letales autónomos no existen todavía.

Este es otro problema de definición. La presentación de Pablo Scharre es un buen resumen de cómo podríamos romper la "autonomía letal" en elementos definibles.

drone_carrier

Vehículo aéreo no tripulado MQ-1 Predator volando sobre el portaaviones USS Carl Vinson (CVN-70)

 El futuro de la guerra.

Además de los debates de definición hubo actualizaciones interesantes de expertos en el campo de la inteligencia artificial (I.A.) y la robótica.

El reconocimiento facial y de marcha por parte de la I.A., según Stuart Russell, se encuentra ahora en niveles "sobrehumanos". Si bien subrayó que esto no implica que los robots podrían distinguir entre combatientes y civiles por el momento, se trata de un paso más cerca hacia aquello. Russell se pregunta si, ¿Pueden los robots cumplir con el derecho internacional humanitario? Es la pregunta equivocada. Es más relevante preguntarse cual sería la consecuencia de una carrera armamentista robótica.

Patrick Lin hizo observaciones interesantes en la noción de ética de la dignidad humana en el contexto de los LAWS. Incluso si los LAWS pudieran actuar en conformidad con el derecho internacional humanitario, la toma de vidas humanas por máquinas viola el derecho a la dignidad, lo que puede ser incluso más fundamental que el derecho a la vida.

Jason Miller habló sobre la psicología moral y diseño de la interfaz. Factores situacionales moralmente irrelevantes pueden comprometer seriamente la moral humana y su juicio.

Michael Horowitz presentó datos de las encuestas que muestran que la población de la India y los Estados Unidos no necesariamente se oponen firmemente a los LAWS. El hallazgo clave de Horowitz fue que el contexto importa. Qué es lo que hagan los LAWS cuando se lanza la encuesta es significativo. Cómo encuadrar la cuestión hace una diferencia significativa en el número de aprobación que la encuesta genera.

Finalmente, la reunión fue un paso adelante en el debate sobre el estado y la legalidad de las armas letales autónomas. Aunque ese debate -y sus consecuencias en el futuro de la guerra- aún está lejos de resolverse.

Etiquetas
Estas leyendo

Trazando límites de guerra en torno a la legalidad de los “robots asesinos”