El uso de la inteligencia artificial (IA) para la guerra ha sido la promesa de la ciencia ficción y los políticos durante años, pero una nueva investigación del Instituto de Tecnología de Georgia sostiene que solo se puede automatizar un subconjunto limitado y muestra el valor del juicio humano.

«Todos los temas difíciles en la IA son realmente problemas de juicio y de datos, y lo interesante es que, cuando empiezas a pensar en la guerra, los temas difíciles son la estrategia y la incertidumbre, o lo que se conoce como la niebla de la guerra», le dijo a Jon Lindsay. Profesor asociado en la Escuela de Ciberseguridad y Privacidad y en la Escuela de Asuntos Internacionales Sam Nunn. «Se necesita el razonamiento humano y la toma de decisiones morales, éticas e intelectuales en una situación increíblemente confusa, tensa y aterradora».

La toma de decisiones de IA se basa en cuatro componentes clave: datos sobre una situación, interpretación de esos datos (o predicción), determinación del mejor curso de acción consistente con objetivos y valores (o juicio) y acción. Los avances en el aprendizaje automático han facilitado las predicciones, lo que hace que los datos y el juicio sean aún más valiosos. Aunque la IA puede automatizar todo, desde el comercio hasta el tránsito, los humanos deben intervenir en el juicio, escribieron Lindsay y el profesor de la Universidad de Toronto, Avi Goldfarb, en el artículo «Predicción y juicio: por qué la inteligencia artificial aumenta el papel humano en la guerra».Publicado en seguridad internacional.

Muchos legisladores prevén que los soldados humanos podrían ser reemplazados por sistemas automatizados, idealmente haciendo que las fuerzas armadas dependan menos del trabajo humano y sean más eficaces en el campo de batalla. Esto se llama la teoría de sustitución de la IA, pero Lindsay y Goldfarb explican que la IA no debe verse como un sustituto, sino como un complemento de las estrategias humanas existentes.

«Las máquinas son buenas para la predicción, pero dependen de los datos y el juicio, y los problemas más difíciles en la guerra son la información y la estrategia», dijo. «Las condiciones en las que AI trabaja en el comercio son las condiciones más difíciles de cumplir en un entorno militar debido a su imprevisibilidad».

Un ejemplo destacado de Lindsay y Goldfarb es la empresa minera Rio Tinto, que utiliza camiones autónomos para mover materiales, lo que reduce los costos y los riesgos para los conductores humanos. Existen numerosos mapas y patrones de tráfico predecibles e imparciales que requieren poca intervención humana a menos que haya bloqueos de carretera u obstáculos.

Sin embargo, la guerra generalmente carece de una gran cantidad de datos imparciales, y los juicios sobre objetivos y valores son inherentemente cuestionados, pero eso no significa que sea imposible. Los investigadores argumentan que la IA se implementaría mejor en entornos burocráticamente estabilizados sobre la base de tareas.

«Toda la emoción y el miedo giran en torno a robots asesinos y vehículos mortales, pero el peor de los casos para la IA militar en la práctica serán los clásicos problemas militaristas en los que realmente se necesita creatividad e interpretación», dijo Lindsay. «Pero lo que deberíamos estar analizando son los sistemas de recursos humanos, la administración, la logística y las reparaciones».

Según los investigadores, el uso de la IA también tiene consecuencias tanto para los militares como para sus oponentes. Si los humanos son el elemento central para decidir cuándo usar la IA en la guerra, entonces la estructura y las jerarquías de comando militar podrían cambiar en función de quién es responsable de diseñar y limpiar los sistemas de datos y tomar decisiones políticas. Esto también significa que los oponentes intentarán comprometer tanto los datos como los juicios, ya que afectaría en gran medida el curso de la guerra. Competir con la IA puede hacer que los oponentes manipulen o interrumpan los datos para dificultar aún más el buen juicio. De hecho, la intervención humana será aún más necesaria.

Pero esto es solo el comienzo de argumentos e innovaciones.

«Cuando la IA automatiza las predicciones, el juicio y los datos se vuelven realmente importantes», dijo Lindsay. “Ya hemos automatizado muchas acciones militares con fuerzas mecanizadas y armas de precisión, luego hemos automatizado la recopilación de datos con sensores y satélites de inteligencia, y ahora estamos automatizando la predicción con IA. Entonces, ¿cuándo vamos a automatizar el juicio, o hay componentes del juicio que no se pueden automatizar?».

Sin embargo, hasta entonces, la toma de decisiones tácticas y estratégicas humanas sigue siendo el aspecto más importante de la guerra.

DEJA UNA RESPUESTA

Por favor ingrese su comentario!
Por favor ingrese su nombre aquí

doce − 12 =