Ciencia en tus manos

¿Deberíamos prohibir los robots asesinos?

No hay comentarios Share:
La campagne contre les robots tueurs de Human Rights Watch s’oppose au développement de robots tueurs qui pourraient sélectionner et attaquer des cibles sans intervention humaine. Elles viendraient violer les principes d’humanité, avec des conséquences imprévisibles selon l’ONG. © Fotolia (ID1974)

En las Naciones Unidas, algunos países acaban de bloquear el establecimiento de un tratado que prohíba los Sistemas de Armas Autónomas Letales, o SALA. Por lo tanto, los robots asesinos pueden continuar su desarrollo antes de llegar al campo de batalla. La comunidad científica está preocupada y las ONGs están aumentando los llamados a imponer este tratado. ¿Y si la solución fuera enseñar a los robots una moraleja?

También te interesará

Después de una semana de reunión en la oficina de Naciones Unidas en Ginebra (Suiza), el establecimiento de un nuevo tratado internacional que prohíbe el uso de armas autónomas letales fue bloqueado por una minoría de países (Australia, Corea del Sur, Estados Unidos, Israel y Rusia). Al final, sobre este tema, solo se aprobaron una veintena de recomendaciones no vinculantes al final de la reunión, en la noche del viernes al sábado. Se centró en renovar el mandato actual del grupo de expertos gubernamentales.

Alemania y Francia simplemente propusieron mantener el principio de control humano sobre el uso de la fuerza, mientras que el presidente Emmanuel Macron ya lo había hecho. «Categóricamente opuesto»armas letales totalmente autónomas.

Pero solo uno tratado puede proteger a la humanidad contra estos robots asesinos, y este está lejos de estar encaminado. De hecho, Australia, Corea del Sur, Estados Unidos, Israel y Rusia se oponen por el momento a cualquier propuesta de tratado.

Con su voluminoso tamaño, el muy ágil Boston Dynamics Big Dog ya ha sido objeto de numerosos experimentos junto a soldados del ejército de EE. UU. No está operativo por el volumen de sonido que emite su motor, pero la firma ha desarrollado otros robots cuadrúpedos más discretos y con un rendimiento asombroso. © Boston Dynamics

¿Necesitamos un código de ética para los robots asesinos?

Los SALA, o robots asesinos, ya se han experimentado durante años. Mundo Informático analiza periódicamente los prototipos de Dinámica de Boston. La firma desarrolla robots dedicados a la guerra desde hace más de veinte años. Robots que se rechazan en máquinas bípedas, cuadrúpedos con capacidades impresionantes. Ya sean estos robots en particular, drones autónomos o vehículos armados sin ocupantes, la llegada de un » Terminator Programado para matar de forma independiente y fría a objetivos predefinidos ya no es el dominio de la ciencia ficción. Este tipo de robot de combate podría aterrizar en el campo de batalla en unos años junto a las tropas, o en su lugar. Y sobre todo, la ausencia de normativa en el importar conducirá inevitablemente a una carrera armamentista una vez que los primeros modelos de robots de combate estén realmente operativos.

Para la ONG Observador de derechos humanos, en el origen de la campaña Detener a los robots asesinos, la llegada de estas armas es dramática. Según ella, dictadores o terroristas podrían utilizarlo con bastante facilidad y a buen precio para controlar o exterminar poblaciones. También podrían ordenar las máquinas para asesinatos selectivos. La ONG no es la única que crea conciencia sobre estos robots asesinos. El 18 de julio, los tenores deuniverso alta tecnología, incluyendo Elon Musk, advirtió a los países miembros de las Naciones Unidas contra estos armamentos. Los signatarios temen que su uso en conflictos sobrepase la escala del entendimiento humano.

Estas reacciones están lejos de ser las primeras. Todos los años desde 2014, este tipo de mensaje se envía a las Naciones Unidas. En vano. Desde los inicios de estos desarrollos técnicos, reconocidas personalidades de las ciencias, comenzando por Stephen Hawking, Max Tegmark, Stuart Russell o Frank Wilczek, expusieron sus temores ante el peligro potencial de la IA.

Si ningún acuerdo puede prohibirlos, una de las soluciones podría ser humanizar, para que se comporten de forma «moral» en el campo de batalla. Se trataría de dotarlos de un código de valores propio de los combatientes. Esto es también lo que recomienda el teniente coronel del ejército francés. Brice Erbland en su trabajo Robots asesinos, publicado por Armand Colin. Muestra lo que podría ser un SALA dotado de un AI capaz de ejercer el buen juicio para comportarse como soldados. En otras palabras, estos robots de combate autónomos deberían integrar una ética artificial. Ya no hablaríamos de SALA, sino de SALMA (Sistemas de Armas Letales, Moralmente Autónomas).

Sin embargo, para que este sea el caso, todos los estados tendrían que jugar el juego. Hasta entonces, la mayoría de ellos todavía están de acuerdo en la necesidad de mantener el control humano sobre los sistemas de armas autónomos letales. Es por eso que la gran mayoría de los 88 estados miembros quieren que se proponga un nuevo tratado en 2019.

Lo que debes recordar

  • Varios países están obstaculizando los planes para prohibir los robots asesinos autónomos.
  • La comunidad científica, así como la ONG Human Rights Watch, advierten a los estados contra el uso de estas armas que podrían salirse de control.

¿Interesado en lo que acaba de leer?

También te puede gustar