El fantasma del asesino de máquinas continúa. ¿En qué cree el presidente Putin?
Tecnología

El fantasma del asesino de máquinas continúa. ¿En qué cree el presidente Putin?

Los defensores de los robots militares (1) argumentan que las armas automatizadas brindan más opciones para proteger la vida humana. Las máquinas pueden acercarse al enemigo más que los soldados y evaluar correctamente la amenaza. Y las emociones a veces paralizan la capacidad de tomar las decisiones correctas.

Muchos partidarios del uso de robots asesinos están firmemente convencidos de que harán que la guerra sea menos sangrienta, porque mueren menos soldados. Señalan que los robots, aunque no sienten lástima, no son susceptibles a las emociones humanas negativas como el pánico, la ira y la venganza, que a menudo conducen a crímenes de guerra.

Los activistas de derechos humanos también usan el argumento de que el ejército ha llevado a una gran reducción de las bajas civiles durante el último medio siglo, y la robotización del ejército permite un mecanismo para hacer cumplir las leyes de la guerra de manera más estricta. Afirman que las máquinas se volverán éticas cuando estén equipadas con software que las obligue a obedecer las leyes de la guerra.

Por supuesto, una gran cantidad de personas, incluidas las más famosas, no comparten esta opinión durante años. En abril de 2013 se lanzó una campaña internacional bajo el lema (2). En su marco, las organizaciones no gubernamentales exigen la prohibición total del uso de armas autónomas. Expertos de muchos países se sentaron por primera vez para discutir este tema en la Conferencia de Desarme de la ONU en Ginebra en mayo de 2014. Un informe publicado unos meses después por Human Rights Watch y científicos de la Universidad de Harvard decía que los autónomos serían demasiado peligrosos: escogían sus propios objetivos y mataban gente. Al mismo tiempo, no está muy claro quién debe rendir cuentas.

2. Demostración como parte de la campaña Stop Killer Robots

Lo que puede hacer un enjambre de pequeños drones

Las disputas en torno a los robots asesinos (ROU) se han prolongado durante años y no se desvanecen. Los últimos meses han traído nuevos intentos de detener robots militares y una ola de informes de nuevos proyectos de este tipo, algunos de los cuales incluso están siendo probados en condiciones reales de combate.

En noviembre de 2017, un video que muestra enjambres mortales de mini-drones ., en un acto horroroso. Los espectadores vieron que ya no necesitamos vehículos pesados ​​de combate, tanques o misiles lanzados por depredadores para matar en masa y de forma automática. El director principal Stuart Russell, profesor de inteligencia artificial en Berkeley, dice:

La primavera pasada cincuenta profesores Las principales universidades del mundo han firmado un llamamiento al Instituto Coreano de Ciencia y Tecnología Avanzadas (KAIST) y su socio Hanwha Systems. anunciaron que no cooperarían con la universidad y recibirían invitados de KAIST. El motivo fue la construcción de "armas autónomas" llevada a cabo por ambas instituciones. KAIST negó los informes de los medios.

Poco después en los EE.UU. más de 3 empleados de Google protestaron contra el trabajo de la empresa para los militares. Les preocupaba que Google se asociara con un proyecto gubernamental con nombre en código Maven que tiene como objetivo utilizar la IA para reconocer objetos y rostros en videos de drones militares. La gerencia de la compañía dice que el objetivo de Maven es salvar vidas y salvar a las personas del trabajo tedioso, no de la agresión. Los manifestantes no estaban convencidos.

La siguiente parte de la batalla fue la declaración. expertos en inteligencia artificial, incluido trabajando en un proyecto de Google y Elon Musk. Prometen no desarrollar robots. También hacen un llamado a los gobiernos para que intensifiquen los esfuerzos para regular y limitar estas armas.

El comunicado dice, en parte, que "la decisión de quitarle la vida a un humano nunca debe ser tomada por una máquina". Aunque los ejércitos del mundo están equipados con muchos dispositivos automáticos, a veces con un alto grado de autonomía, muchos expertos temen que en el futuro esta tecnología pueda volverse completamente autónoma, permitiendo matar sin la participación de un operador y comandante humano.

Los expertos también advierten que las máquinas de matar autónomas podrían ser incluso más peligrosas que las "armas nucleares, químicas y biológicas" porque fácilmente pueden salirse de control. En total, en julio del año pasado, 170 organizaciones y 2464 personas firmaron una carta auspiciada por el Instituto Futuro de la Vida (FGI). En los primeros meses de 2019, un grupo de científicos médicos afiliados a FLI pidió nuevamente una nueva carta que prohíba el desarrollo de armas controladas por inteligencia artificial (IA).

La reunión de agosto del año pasado de la ONU en Gniewo sobre la posible regulación legal de los "robots asesinos" militares terminó con éxito... máquinas. Un grupo de países, incluidos Estados Unidos, Rusia e Israel, bloquearon el trabajo adicional sobre la introducción de una prohibición internacional de estas armas (proyecto de Convención sobre la Prohibición o Restricción del Uso de Ciertas Armas Convencionales, CCW). No es casualidad que estos países sean conocidos por su trabajo en sistemas avanzados de armas autónomas y robóticas.

Rusia se centra en los robots de combate

A menudo se cita al presidente Vladimir Putin diciendo sobre los sistemas militares de inteligencia artificial y los robots de combate:

-.

habla abiertamente sobre el desarrollo de armas autónomas. El jefe del Estado Mayor General de sus fuerzas armadas, general Valery Gerasimov, dijo recientemente a la agencia militar de noticias Interfax-AVN que el uso de robots será una de las principales características de las guerras futuras. Agregó que Rusia está intentando automatizar completamente el campo de batalla. Comentarios similares hicieron el viceprimer ministro Dmitry Rogozin y el ministro de Defensa Sergei Shoigu. El presidente del Comité de Defensa y Seguridad del Consejo de la Federación, Viktor Bondarev, dijo que Rusia se esfuerza por desarrollar Tecnologías Rojuesto permitiría que las redes de drones funcionen como una sola entidad.

Esto no es de extrañar si recordamos que los primeros teletanques se desarrollaron en la Unión Soviética en los años 30. Fueron utilizados al comienzo de la Segunda Guerra Mundial. Hoy Rusia también crea robots tanque volverse cada vez más autónomos.

El estado de Putin envió recientemente a los suyos a Siria Vehículo de combate no tripulado Uran-9 (3). el dispositivo perdió contacto con los puntos de control en tierra, tuvo problemas con el sistema de suspensión y sus armas no funcionaron a la perfección y no alcanzaron objetivos en movimiento. No suena muy serio, pero muchos consideran que la limpieza siria es una buena prueba de combate que permitirá a los rusos mejorar la máquina.

Roscosmos ha aprobado un plan preliminar para enviar dos robots a la Estación Espacial Internacional para agosto de este año. Fedor (4) en la Unión no tripulada. No como una carga, pero. Como en la película RoboCop, Fedor empuña un arma y demuestra una puntería letal durante los ejercicios de tiro.

La pregunta es, ¿por qué se armó un robot en el espacio? Hay sospechas de que el asunto no es sólo en aplicaciones terrestres. Mientras tanto en la Tierra, fabricante de armas rusos Kalashnikov mostró una visualización robot igoreklo que, aunque provocó muchas risas, indica que la empresa está trabajando seriamente en vehículos de combate autónomos. En julio de 2018, Kalashnikov anunció que estaba construyendo un arma que usa para tomar decisiones de "disparar o no disparar".

A esta información se deben agregar informes de que el armero ruso Digtyarev desarrolló un pequeño tanque autónomo Nerekht que puede moverse en silencio hacia su objetivo por sí solo y luego explotar con una fuerza poderosa para destruir otros edificios o edificios completos. Así como Tanque T14 Ejército , el orgullo de las fuerzas armadas rusas, fue diseñado para un posible control remoto y conducción no tripulada. Sputnik afirma que los ingenieros militares rusos están trabajando para hacer del T-14 un vehículo blindado totalmente autónomo.

Directiva de objeción

El propio ejército estadounidense ha impuesto un límite bastante claro al nivel de autonomía de sus armas. En 2012, el Departamento de Defensa de EE. UU. emitió la Directiva 3000.09, que establece que los humanos deben tener derecho a oponerse a las acciones de los robots armados. (aunque puede haber algunas excepciones). Esta directiva sigue vigente. La política actual del Pentágono es que el factor decisivo en el uso de armas siempre debe ser una persona, y que tal juicio debe serlo. se ajusta a las leyes de la guerra.

Aunque los estadounidenses han estado usando supermáquinas voladoras, Predator, Reaper y muchas otras durante décadas, no eran ni son modelos autónomos. Son controlados por operadores de forma remota, a veces desde una distancia de varios miles de kilómetros. Una acalorada discusión sobre la autonomía de máquinas de este tipo comenzó con el estreno del prototipo. dron X-47B (5), que no solo volaba de forma independiente, sino que también podía despegar de un portaaviones, aterrizar en él y repostar en el aire. El significado también es disparar o bombardear sin intervención humana. Sin embargo, el proyecto aún está bajo prueba y revisión.

5. Pruebas del X-47B no tripulado en un portaaviones estadounidense

En 2003, el Departamento de Defensa comenzó a experimentar con un pequeño robot parecido a un tanque. ESPOSAS equipado con una ametralladora. En 2007 fue enviado a Irak. sin embargo, el programa terminó después de que el robot comenzara a comportarse de forma errática, moviendo su rifle de forma errática. Como resultado, el ejército estadounidense abandonó el estudio de los robots terrestres armados durante muchos años.

Al mismo tiempo, el Ejército de EE. UU. aumentó su gasto en operaciones de $20 millones en 2014 a $156 millones en 2018. En 2019, este presupuesto ya saltó a $327 millones. Este es un aumento acumulado de 1823% en solo unos pocos años. Los expertos dicen que ya en 2025, el ejército de EE. UU. puede tener un campo de batalla más soldados robot que humanos.

Recientemente, el ejército de los EE. UU. Ha causado y anunciado mucha controversia. Proyecto ATLAS () - automático. En los medios de comunicación, esto fue considerado como una violación de la mencionada directiva 3000.09. Sin embargo, el ejército estadounidense niega y asegura que la exclusión de una persona del ciclo de toma de decisiones está fuera de discusión.

AI reconoce tiburones y civiles

Sin embargo, los defensores de las armas autónomas tienen nuevos argumentos. profe. Ronald Arkin, roboticista del Instituto Tecnológico de Georgia, afirma en sus publicaciones que En la guerra moderna, las armas inteligentes son esenciales para evitar bajas civiles, ya que las técnicas de aprendizaje automático pueden ayudar de manera efectiva a distinguir entre combatientes y civiles, y objetivos importantes y no importantes.

Un ejemplo de tales habilidades de IA es patrullar las playas australianas. drones pequeño destripadorequipado con el sistema SharkSpotter desarrollado por la Universidad Tecnológica de Sydney. Este sistema escanea automáticamente el agua en busca de tiburones y alerta al operador cuando ve algo inseguro. (6) Puede identificar personas, delfines, botes, tablas de surf y objetos en el agua para distinguirlos de los tiburones. Puede detectar e identificar unas dieciséis especies diferentes con gran precisión.

6. Tiburones reconocidos en el sistema SharkSpotter

Estos métodos avanzados de aprendizaje automático aumentan la precisión del reconocimiento aéreo en más del 90 %. A modo de comparación, un operador humano en una situación similar reconoce con precisión el 20-30% de los objetos en fotografías aéreas. Además, la identificación aún es verificada por un humano antes de una alarma.

En el campo de batalla, el operador, al ver la imagen en la pantalla, difícilmente puede determinar si las personas en el suelo son combatientes con AK-47 en sus manos o, por ejemplo, agricultores con picas. Arkin señala que las personas tienden a "ver lo que quieren ver", especialmente en situaciones estresantes. Este efecto contribuyó al derribo accidental de un avión iraní por parte del USS Vincennes en 1987. Por supuesto, en su opinión, las armas controladas por IA serían mejores que las actuales "bombas inteligentes", que en realidad no son inteligentes. En agosto pasado, un misil guiado por láser saudí impactó contra un autobús lleno de escolares en Yemen y mató a cuarenta niños.

“Si un autobús escolar está debidamente etiquetado, identificarlo en un sistema autónomo puede ser relativamente fácil”, argumenta Arkin en Popular Mechanics.

Sin embargo, estos argumentos no parecen convencer a los activistas contra los asesinos automáticos. Además de la amenaza de los robots asesinos, hay que tener en cuenta otra circunstancia importante. Incluso un sistema "bueno" y "atento" puede ser pirateado y tomado por personas muy malas. Entonces todos los argumentos en defensa del equipo militar pierden su fuerza.

Añadir un comentario