La ONU quiere regular los robots asesinos

hace 2 años

La campagne contre les robots tueurs de Human Rights Watch s’oppose au développement de robots tueurs qui pourraient sélectionner et attaquer des cibles sans intervention humaine. Elles viendraient violer les principes d’humanité, avec des conséquences imprévisibles selon l’ONG. © Fotolia (ID1974)

Los 125 miembros de las Naciones Unidas se reunirán hasta mañana en Ginebra para sentar las bases de la normativa sobre los sistemas de armas autónomas letales, los famosos robots asesinos. Claramente, ya no se trata de prohibirlos. Al igual que en el último intento, el consenso está lejos de alcanzarse y las doctrinas militares en torno al uso de estas armas difieren de un país a otro.

También te interesará

Perro robot armado con un rifle de asalto, Científico iraní eliminado gracias a un arma robótica, enjambre de drones asesinos, no faltan ejemplos recientes para alimentar el debate sobre los sistemas de armas autónomos letales (SALA), en otras palabras, robots asesinos. Hace dos años (ver más abajo), en la ONU, el establecimiento de un tratado internacional que prohíbe el uso de armas autónomas letales fue bloqueado por una minoría de países. Este año, los miembros de las Naciones Unidas se vuelven a reunir en Ginebra hasta mañana 17 de diciembre para piso sobre el tema.

Si bien los 125 miembros coinciden en que se debe aplicar un marco legal a su uso, ya no se trata de prohibirlos, ya que en ocasiones ya son operados de manera operativa por ciertos miembros. Nadie se hace ilusiones sobre el establecimiento de un tratado real este año, pero los estados esperan que, no obstante, se sientan las bases para el futuro. Pero, como en la última reunión, son siempre los mismos países los que se demoran en este reglamento. Por lo tanto, India, Rusia, que está probando robots de combate en Siria, y Estados Unidos, que no quiere regulaciones vinculantes, deberían evitar una vez más cualquier consenso.

Índice
  1. Robots asesinos que no toman decisiones
  2. Armas autónomas letales: ¿Deberían prohibirse los robots asesinos?
  3. ¿Necesitamos un código de ética para los robots asesinos?

Robots asesinos que no toman decisiones

En Francia, el comité de ética de la defensa ya ha emitido su dictamen. Sus miembros no quieren que los militares operen sistemas de armas letales totalmente autónomos. Por otro lado, no se oponen a las armas robóticas, pilotadas por operadores humanos. También pudimos ver el Spot perro robot de Boston Dynamics trabajan junto a soldados franceses durante los ejercicios. Francia incluso ha cambiado el nombre de SALA a SALIA, para "Sistemas de armas que integran la autonomía".

También es la doctrina de otros países, como Australia, Israel, Turquía, China y Corea del Sur, que también están desarrollando sus propios sistemas de armas autónomas letales.

Por su parte, la ONG Human Rights Watch, en el origen de la Detener a los robots asesinos, indica que estas armas eventualmente caerán en las manos equivocadas incluso antes de que se establezcan las posibles regulaciones. Contrariamente a la lentitud con que se establece un marco legal, la carrera tecnológica continúa y los robots están mejorando muy rápidamente. Para ellos, cuando su precio es lo suficientemente bajo, el riesgo es alto de encontrarlos como arsenal guerrillero en organizaciones terroristas o en ciertas dictaduras para llevar a cabo asesinatos selectivos.

Lo que debes recordar

  • Varios países están obstaculizando los planes para prohibir los robots asesinos autónomos.
  • La comunidad científica y la ONG Human Rights Watch advierten a los estados contra el uso de estas armas que podrían salirse de control.

Armas autónomas letales: ¿Deberían prohibirse los robots asesinos?

En las Naciones Unidas, algunos países acaban de bloquear el establecimiento de un tratado que prohíba los Sistemas de Armas Autónomas Letales, o SALA. Por lo tanto, los robots asesinos pueden continuar su desarrollo antes de llegar al campo de batalla. La comunidad científica está preocupada y las ONGs están aumentando los llamados a imponer este tratado. ¿Y si la solución fuera enseñar a los robots una moraleja?

Artículo de Sylvain Biget, publicado el 15/12/2019

Después de una semana de reunión en la oficina de Naciones Unidas en Ginebra (Suiza), el establecimiento de un nuevo tratado internacional que prohíbe el uso de armas autónomas letales fue bloqueado por una minoría de países (Australia, Corea del Sur, Estados Unidos, Israel y Rusia). Al final, sobre este tema, solo se aprobaron una veintena de recomendaciones no vinculantes al final de la reunión, en la noche del viernes al sábado. Se centró en renovar el mandato actual del grupo de expertos gubernamentales.

Alemania y Francia simplemente propusieron mantener el principio de control humano sobre el uso de la fuerza, mientras que el presidente Emmanuel Macron ya lo había hecho. "Categóricamente opuesto"armas letales totalmente autónomas.

Pero solo uno tratado puede proteger a la humanidad contra estos robots asesinos, y este está lejos de estar encaminado. De hecho, Australia, Corea del Sur, Estados Unidos, Israel y Rusia se oponen por el momento a cualquier propuesta de tratado.

Con su voluminoso tamaño, el muy ágil Boston Dynamics Big Dog ya ha sido objeto de numerosos experimentos junto a soldados del ejército de EE. UU. No está operativo por el volumen de sonido que emite su motor, pero la firma ha desarrollado otros robots cuadrúpedos más discretos y con un rendimiento asombroso. © Boston Dynamics

¿Necesitamos un código de ética para los robots asesinos?

Los SALA, o robots asesinos, ya se han experimentado durante años. Mundo Informático analiza periódicamente los prototipos de Dinámica de Boston. La firma desarrolla robots dedicados a la guerra desde hace más de veinte años. Robots que se rechazan en máquinas bípedas, cuadrúpedos con capacidades impresionantes. Ya sean estos robots en particular, drones autónomos o vehículos armados sin ocupantes, la llegada de un " Terminator Programado para matar de forma independiente y fría a objetivos predefinidos ya no es el dominio de la ciencia ficción. Este tipo de robot de combate podría aterrizar en el campo de batalla en unos años junto a las tropas, o en su lugar. Y sobre todo, la ausencia de normativa en el importar conducirá inevitablemente a una carrera armamentista una vez que los primeros modelos de robots de combate estén realmente operativos.

Para la ONG Observador de derechos humanos, en el origen de la campaña Detener a los robots asesinos, la llegada de estas armas es dramática. Según ella, dictadores o terroristas podrían utilizarlo con bastante facilidad y a buen precio para controlar o exterminar poblaciones. También podrían ordenar las máquinas para asesinatos selectivos. La ONG no es la única que crea conciencia sobre estos robots asesinos. El 18 de julio, los tenores deuniverso alta tecnología, incluyendo Elon Musk, advirtió a los países miembros de las Naciones Unidas contra estos armamentos. Los signatarios temen que su uso en conflictos sobrepase la escala del entendimiento humano.

Estas reacciones están lejos de ser las primeras. Todos los años desde 2014, este tipo de mensaje se envía a las Naciones Unidas. En vano. Desde los inicios de estos desarrollos técnicos, reconocidas personalidades de las ciencias, comenzando por Stephen Hawking, Max Tegmark, Stuart Russell o Frank Wilczek, expusieron sus temores ante el peligro potencial de la IA.

Si ningún acuerdo puede prohibirlos, una de las soluciones podría ser humanizar, para que se comporten de forma "moral" en el campo de batalla. Se trataría de dotarlos de un código de valores propio de los combatientes. Esto es también lo que recomienda el teniente coronel del ejército francés. Brice Erbland en su trabajo Robots asesinos, publicado por Armand Colin. Muestra lo que podría ser un SALA dotado de un AI capaz de ejercer el buen juicio para comportarse como soldados. En otras palabras, estos robots de combate autónomos deberían integrar una ética artificial. Ya no hablaríamos de SALA, sino de SALMA (Sistemas de Armas Letales, Moralmente Autónomas).

Sin embargo, para que este sea el caso, todos los estados tendrían que jugar el juego. Hasta entonces, la mayoría de ellos todavía están de acuerdo en la necesidad de mantener el control humano sobre los sistemas de armas autónomos letales. Es por eso que la gran mayoría de los 88 estados miembros quieren que se proponga un nuevo tratado en 2019.

¿Interesado en lo que acaba de leer?

Si quieres conocer otros artículos parecidos a La ONU quiere regular los robots asesinos puedes visitar la categoría Otros.

Otras noticias que te pueden interesar

Subir