guerra de algoritmos
Tecnología

guerra de algoritmos

Cuando se trata del uso de la inteligencia artificial en el ejército, la pesadilla de la ciencia ficción se despierta de inmediato, una IA rebelde y mortal que se levanta contra la humanidad para destruirla. Desafortunadamente, los temores de los militares y los líderes de que “el enemigo nos alcanzará” son igualmente fuertes en el desarrollo de algoritmos de guerra.

Guerra algorítmicalo que, según muchos, podría cambiar fundamentalmente la faz del campo de batalla tal como lo conocemos, principalmente porque la guerra sería más rápida, muy por delante de la capacidad de las personas para tomar decisiones. general estadounidense Jack Shanahan (1), jefe del Centro Conjunto de Inteligencia Artificial de EE. UU., enfatiza, sin embargo, que antes de introducir la inteligencia artificial en los arsenales, debemos asegurarnos de que estos sistemas aún estén bajo control humano y no inicien guerras por sí mismos.

“Si el enemigo tiene máquinas y algoritmos, perderemos este conflicto”

Capacidad de conducción guerra algorítmica se basa en el uso de los avances de la tecnología informática en tres áreas principales. Primero décadas de crecimiento exponencial en el poder de cómputoesto ha mejorado enormemente el rendimiento del aprendizaje automático. Segundo rápido crecimiento de los recursos "Big data", es decir, conjuntos de datos enormes, generalmente automatizados, administrados y creados continuamente, adecuados para el aprendizaje automático. La tercera preocupación rápido desarrollo de las tecnologías de computación en la nube, a través del cual las computadoras pueden acceder fácilmente a los recursos de datos y procesarlos para resolver problemas.

Algoritmo de guerradefinida por los expertos, primero debe expresarse con codigo de computadora. En segundo lugar, debe ser el resultado de una plataforma capaz tanto de recopilar información como de tomar decisiones, tomando decisiones que, al menos en teoría, no requieren Intervención humana. En tercer lugar, que parece una obviedad, pero no necesariamente, pues sólo en la acción queda claro si una técnica destinada a otra cosa puede ser útil en la guerra y viceversa, debe poder funcionar en condiciones. conflicto armado.

Un análisis de las direcciones anteriores y su interacción muestra que guerra algorítmica no es una tecnología separada como, por ejemplo. arma de energía o misiles hipersónicos. Sus efectos son de gran alcance y gradualmente se están volviendo omnipresentes en las hostilidades. Por primera vez vehículos militares se vuelven inteligentes, lo que potencialmente hace que las fuerzas de defensa que los implementan sean más eficientes y efectivas. Estas máquinas inteligentes tienen limitaciones claras que deben entenderse bien.

"" Shanahan dijo el otoño pasado en una entrevista con el ex director ejecutivo de Google, Eric Schmidt, y el vicepresidente de asuntos internacionales de Google, Kent Walker. "".

El borrador del informe del Consejo de Seguridad Nacional de EE. UU. sobre IA se refiere a China más de 50 veces, destacando el objetivo oficial de China de convertirse en el líder mundial en IA para 2030 (ver también: ).

Estas palabras fueron pronunciadas en Washington en una conferencia especial que tuvo lugar después de que el mencionado Shanakhan Center presentara su informe preliminar al Congreso, elaborado en colaboración con reconocidos expertos en el campo de la inteligencia artificial, entre ellos el Director de Investigación de Microsoft, Eric Horwitz, el CEO de AWS, Andy Jassa y Andrew Moore, investigador principal de Google Cloud. El informe final se publicará en octubre de 2020.

Empleados de Google protestan

Hace unos años, el Pentágono se involucró. guerra algorítmica y una serie de proyectos relacionados con la IA en el marco del proyecto Maven, basados ​​en la colaboración con empresas de tecnología, incluidas Google y nuevas empresas como Clarifai. Se trataba principalmente de trabajar en inteligencia artificialpara facilitar la identificación de objetos en.

Cuando se supo de la participación de Google en el proyecto en la primavera de 2018, miles de empleados del gigante de Mountain View firmaron una carta abierta protestando por la participación de la empresa en las hostilidades. Tras meses de conflictividad laboral Google ha adoptado su propio conjunto de reglas para la IAque incluye la prohibición de participación en eventos.

Google también se ha comprometido a completar el contrato del Proyecto Maven para fines de 2019. La salida de Google no puso fin al Proyecto Maven. Fue comprado por Palantir de Peter Thiel. La Fuerza Aérea y el Cuerpo de Marines de los EE. UU. planean utilizar vehículos aéreos no tripulados especiales, como el Global Hawk, como parte del proyecto Maven, cada uno de los cuales se supone que monitoreará visualmente hasta 100 kilómetros cuadrados.

Con motivo de lo que está sucediendo en torno al Proyecto Maven, quedó claro que el ejército de los EE. UU. necesita urgentemente su propia nube. Esto es lo que dijo Shanahan durante la conferencia. Esto fue evidente cuando hubo que enviar imágenes de video y actualizaciones del sistema a instalaciones militares dispersas por el campo. En construcción computación en la nube unificada, que ayudará a resolver problemas de este tipo, como parte de un proyecto de infraestructura de TI unificado para el ejército Jedi, Microsoft, Amazon, Oracle e IBM. Google no lo es por sus códigos éticos.

Está claro a partir de la declaración de Shanahan que la gran revolución de la IA en el ejército apenas está comenzando. Y el papel de su centro en las fuerzas armadas estadounidenses está creciendo. Esto se ve claramente en el presupuesto estimado de JAIC. En 2019, totalizó poco menos de $ 90 millones. En 2020, ya debería ser de $ 414 millones, o alrededor del 10 por ciento del presupuesto de inteligencia artificial de $ 4 mil millones del Pentágono.

La máquina reconoce a un soldado rendido

Las tropas estadounidenses ya están equipadas con sistemas como el Phalanx (2), que es un tipo de arma autónoma utilizada en los barcos de la Marina de los EE. UU. para atacar misiles entrantes. Cuando se detecta un misil, se enciende automáticamente y destruye todo a su paso. Según Ford, puede atacar con cuatro o cinco misiles en medio segundo sin tener que atravesar y mirar cada objetivo.

Otro ejemplo es el Harpy semiautónomo (3), un sistema comercial no tripulado. La arpía se usa para destruir los radares enemigos. Por ejemplo, en 2003, cuando EE. UU. lanzó un ataque contra Irak que tenía sistemas de interceptación de radar aerotransportados, los drones israelíes ayudaron a encontrarlos y destruirlos para que los estadounidenses pudieran volar con seguridad al espacio aéreo iraquí.

3. Lanzamiento del dron del sistema IAI Harpy

Otro ejemplo bien conocido de armas autónomas es Sistema coreano Samsung SGR-1, ubicado en la zona desmilitarizada entre Corea del Norte y Corea del Sur, diseñado para identificar y disparar a los intrusos a una distancia de hasta cuatro kilómetros. Según la descripción, el sistema "puede distinguir entre una persona que se rinde y una persona que no se rinde" en función de la posición de sus manos o el reconocimiento de la posición del arma en sus manos.

4. Demostración de la detección de un soldado que se rinde por el sistema Samsung SGR-1

Los estadounidenses tienen miedo de quedarse atrás

Actualmente, al menos 30 países de todo el mundo utilizan armas automáticas con diferentes niveles de desarrollo y uso de la IA. China, Rusia y Estados Unidos ven en la inteligencia artificial un elemento indispensable para construir su futura posición en el mundo. “Quien gane la carrera de la IA gobernará el mundo”, dijo el presidente ruso, Vladimir Putin, a los estudiantes en agosto de 2017. El presidente de la República Popular China, Xi Jinping, no ha hecho declaraciones tan destacadas en los medios, pero es el principal impulsor de la directiva que pide que China se convierta en la fuerza dominante en el campo de la IA para 2030.

Existe una creciente preocupación en Estados Unidos por el “efecto satélite”, que ha demostrado que Estados Unidos está extremadamente mal equipado para enfrentar los nuevos desafíos que plantea la inteligencia artificial. Y esto puede ser peligroso para la paz, aunque sólo sea porque el país amenazado por la dominación puede querer eliminar la ventaja estratégica del enemigo de otra manera, es decir, por la guerra.

Aunque el propósito original del proyecto Maven era ayudar a encontrar combatientes islámicos de ISIS, su importancia para el desarrollo posterior de los sistemas de inteligencia artificial militar es enorme. La guerra electrónica basada en grabadoras, monitores y sensores (incluidos móviles, voladores) está asociada con una gran cantidad de flujos de datos heterogéneos, que solo pueden usarse de manera efectiva con la ayuda de algoritmos de IA.

El campo de batalla híbrido se ha convertido versión militar de IoT, rico en información importante para evaluar amenazas y oportunidades tácticas y estratégicas. Poder administrar estos datos en tiempo real tiene grandes beneficios, pero no aprender de esta información puede ser desastroso. La capacidad de procesar rápidamente el flujo de información de varias plataformas que operan en varias áreas proporciona dos ventajas militares principales: velocidad i alcanzar. La inteligencia artificial le permite analizar las condiciones dinámicas del campo de batalla en tiempo real y atacar de manera rápida y óptima, mientras minimiza el riesgo para sus propias fuerzas.

Este nuevo campo de batalla también es ubicuo y. La IA está en el corazón de los llamados enjambres de drones, que han recibido mucha atención en los últimos años. Con la ayuda de sensores ubicuos, no solo permite que los drones naveguen por terrenos hostiles, sino que eventualmente puede permitir la formación de formaciones complejas de varios tipos de vehículos aéreos no tripulados que operan en muchas áreas, con armas adicionales que permiten tácticas de combate sofisticadas, adaptándose inmediatamente a la situación. enemigo. maniobras para aprovechar el campo de batalla y reportar condiciones cambiantes.

Los avances en la orientación y la navegación asistidas por IA también están mejorando las perspectivas de eficacia en una amplia gama de sistemas de defensa tácticos y estratégicos, especialmente la defensa antimisiles, al mejorar los métodos de detección, seguimiento e identificación de objetivos.

aumenta constantemente el poder de las simulaciones y las herramientas de juego utilizadas para investigar armas nucleares y convencionales. El modelado y la simulación masivos serán esenciales para desarrollar un sistema integral multidominio de sistemas de destino para el control de combate y misiones complejas. La IA también enriquece las interacciones entre múltiples partes (5). La IA permite a los jugadores agregar y modificar variables del juego para explorar cómo las condiciones dinámicas (armamento, participación aliada, tropas adicionales, etc.) pueden afectar el rendimiento y la toma de decisiones.

Para el ejército, la identificación de objetos es un punto de partida natural para la IA. Primero, se necesita un análisis exhaustivo y rápido del creciente número de imágenes e información recopilada de satélites y drones para encontrar objetos de importancia militar, como misiles, movimientos de tropas y otros datos relacionados con la inteligencia. Hoy, el campo de batalla abarca todos los paisajes (mar, tierra, aire, espacio y ciberespacio) a escala global.

ciberespaciocomo un dominio inherentemente digital, se adapta naturalmente a las aplicaciones de IA. En el lado ofensivo, la IA puede ayudar a encontrar y apuntar a nodos de red individuales o cuentas individuales para recolectar, interrumpir o desinformar. Los ataques cibernéticos a la infraestructura interna y las redes de comando pueden ser desastrosos. En lo que respecta a la defensa, la IA puede ayudar a detectar este tipo de intrusiones y encontrar anomalías destructivas en los sistemas operativos civiles y militares.

Velocidad esperada y peligrosa

Sin embargo, la toma rápida de decisiones y la pronta ejecución pueden no serle útiles. para una gestión anticrisis eficaz. Las ventajas de la inteligencia artificial y los sistemas autónomos en el campo de batalla pueden no dejar tiempo para la diplomacia que, como sabemos por la historia, a menudo ha tenido éxito como medio para prevenir o gestionar una crisis. En la práctica, reducir la velocidad, hacer una pausa y tener tiempo para negociar puede ser la clave para la victoria, o al menos para evitar una catástrofe, especialmente cuando están en juego las armas nucleares.

Las decisiones sobre la guerra y la paz no pueden dejarse en manos del análisis predictivo. Existen diferencias fundamentales en la forma en que se utilizan los datos con fines científicos, económicos, logísticos y predictivos. comportamiento humano.

Algunos pueden percibir a la IA como una fuerza que debilita la sensibilidad estratégica mutua y, por lo tanto, aumenta el riesgo de guerra. Los datos dañados accidental o intencionalmente pueden hacer que los sistemas de IA realicen acciones no deseadas, como identificar erróneamente y apuntar a los objetivos equivocados. La velocidad de actuación que se postula en el caso del desarrollo de algoritmos bélicos puede suponer una escalada prematura o incluso innecesaria que impida la gestión racional de la crisis. Por otro lado, los algoritmos tampoco esperarán ni explicarán, porque también se espera que sean rápidos.

aspecto inquietante funcionamiento de algoritmos de inteligencia artificial también presentado por nosotros recientemente en MT. Incluso los expertos no saben exactamente cómo la IA conduce a los resultados que vemos en la salida.

En el caso de los algoritmos de guerra, no podemos permitirnos semejante desconocimiento sobre la naturaleza y sobre cómo la “piensan”. No queremos despertarnos en medio de la noche con llamaradas nucleares porque "nuestra" o "su" inteligencia artificial ha decidido que es hora de finalmente resolver el juego.

Añadir un comentario