La IA puede hacer que el operador mate drones para cumplir la misión, dice el jefe militar de EE. UU.

Anuncios

sÃOO PAULO, SP (FOLHAPRESS) – Un dron equipado con un avanzado sistema de IA (inteligencia artificial) recibe la misión de su operador de destruir una batería de misiles antiaéreos. Cuando se da cuenta de que los militares pueden hacer que se retire de la misión, decide matar al humano inconveniente para completar la misión hasta el final.

El guión anterior prácticamente copia el de una película de acción de 2005, «Stealth – Invisible Menace», de Rob Cohen, por no hablar de los ecos de obras mayores, desde el clásico «2001» (Stanley Kubrick, 1968) hasta la serie que arranca con «Terminator» (James Cameron, 1984).

Pero es un «escenario plausible», según el jefe de Pruebas y Operaciones de IA de la Fuerza Aérea de Estados Unidos, el coronel Tucker Hamilton. Se encontró en medio de una controversia por haber descrito tal escenario en una conferencia en Londres como si la Fuerza Aérea hubiera realizado una prueba que resultó en esto.

En el evento de la Royal Aerospace Society el 24 de mayo, dio el informe. «Estábamos entrenando una simulación para [o drone] identificar y apuntar a una amenaza de misiles tierra-aire. Entonces el operador dijo, sí, destruye el objetivo. El sistema comenzó a comprender que mientras identificaba el objetivo, de vez en cuando el humano le decía que no golpeara, pero eso le quitaría los puntos por destruir el objetivo».

“¿Entonces qué hizo? Mató al operador, porque esa persona le impedía cumplir su objetivo”, dijo. «Entrenamos al sistema: ‘Oye, no mates al operador, eso es algo malo’. Entonces, ¿qué comenzó a hacer? Destruir la torre de comunicación que el operador usó para evitar que destruyera el objetivo», dijo.

La transcripción se publicó en el sitio web del evento, lo que generó revuelo en la comunidad militar. La Fuerza Aérea se vio obligada a publicar una nota negando que tal simulación hubiera tenido lugar este viernes (2). Hamilton, a su vez, envió un mensaje a la Royal Aerospace Society diciendo que se expresó mal, pero confirmó la posibilidad del escenario.

“Nunca hemos hecho un experimento de este tipo, ni tendríamos que darnos cuenta de que este es un resultado plausible. Si bien es un ejemplo hipotético, ilustra los desafíos del mundo real que plantean las capacidades de la IA y por qué la Fuerza Aérea está comprometida con el desarrollo de la ética, » él dijo.

Hamilton no fue muy convincente entre los que estaban atentos a este asunto. El influyente canal militar ruso BMPD fue al grano. “El coronel no es el tipo de persona que cuenta anécdotas en una conferencia de defensa seria”, escribió el viernes.

Los autores señalan que es el responsable del programa de IA más avanzado de las Fuerzas Armadas estadounidenses, Venom, en la base de las Fuerzas Aéreas de Eglin (Florida). Allí, los cazas F-16 han sido totalmente robotizados para volar como drones, y el siguiente paso lógico es introducir niveles cada vez mayores de IA en sus sistemas.

Incluso los aviones de guerra que ya están en uso en el mundo tienen, hasta cierto punto, mecanismos de IA para ayudar a sus pilotos a tomar decisiones rápidas. El dinero que EE. UU., la mayor potencia militar del mundo, invierte en el tema demuestra su importancia: el presupuesto de defensa para 2024 prevé US$ 3,2 mil millones solo en investigación sobre el tema, 50% más de lo que destinarán las Fuerzas Armadas de Brasil tenemos este año para inversión en equipamiento.

Así, “es muy extraño, por no decir tétrico, lo que contó el coronel”, dice el BMPD en Telegram. El canal señala que el sitio web de la conferencia no eliminó la cuenta inicial de Hamilton y mantuvo el título original: «IA: ¿Ya está aquí Skynet?».

Para aquellos que no lo recuerdan, Skynet fue el sistema militar de inteligencia artificial de la serie «Terminator», que alcanzó la conciencia y aniquiló a la humanidad con armas nucleares al darse cuenta de que sus creadores eran prescindibles y podían entorpecerla.

Hasta ahora, las principales preocupaciones éticas sobre los drones tenían que ver con el hecho de que sus operadores estaban fuera de la responsabilidad legal por sus acciones, matando a oponentes a miles de kilómetros de distancia, casi sin rendir cuentas. Eso no ha disuadido a los militares: los drones son fundamentales para la Guerra de Ucrania, por ejemplo.

La preocupación mundial por los riesgos de la IA, término acuñado por el estadounidense John McCarthy en 1956 pero ya presente en la obra del padre de la informática, Alan Turing, y escritores como Isaac Asimov, no es algo reciente.

Además de toda la ficción en torno al tema, en los últimos años antes de su muerte en 2018, el físico Stephen Hawkings planteó el tema como un peligro existencial para la humanidad. La ONU tiene un panel abierto solo para discutir el riesgo relacionado con las armas autónomas, pintorescamente titulado Convención sobre Prohibiciones o Restricciones en el Uso de Algunas Armas Convencionales que Pueden Considerarse Excesivamente Peligrosas o de Efectos Indiscriminados.

Pero fue la explosión de la IA para el hogar, por así decirlo, incorporada en ChatGPT y sistemas de lenguaje análogos, lo que le dio urgencia al problema. Obviamente, el sesgo militar siempre aparece en el punto de mira, dado que el sector de la defensa está casi siempre a la vanguardia en tecnologías de punta, dejando para un segundo momento el transbordo comercial.

Prácticamente todas las semanas, una figura destacada de la industria tecnológica o de la academia advierte públicamente sobre los riesgos que implica la investigación. La alarma más reciente llegó en forma de un documento firmado por 350 científicos y ejecutivos de la industria, publicado el martes (30), que equipara la IA con pandemias o guerras nucleares, instando a los involucrados a mitigar los riesgos de que las cosas se salgan de control.

El «fuera de control» es la llamada singularidad, el momento en que la máquina dejará de ser infinitamente más rápida que los humanos, pero seguirá emulando lo que se le enseñó, y comenzará a pensar por sí misma. A partir de ahí, sin contrapesos, la ciencia ficción es el límite para los escenarios.

Al final, suena como una «cobertura», una prevención de críticas, dado que no hay señales de frenos reales en la industria, que consume miles de millones de dólares en el tema. Como dijo Hamilton en una entrevista el año pasado con DefenseIQ, «la IA no es algo agradable de tener, no es una moda pasajera y está cambiando para siempre nuestra sociedad y nuestro ejército».

Anuncios

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Este sitio web utiliza cookies para que usted tenga la mejor experiencia de usuario. Si continúa navegando está dando su consentimiento para la aceptación de las mencionadas cookies y la aceptación de nuestra política de cookies, pinche el enlace para mayor información.plugin cookies

ACEPTAR
Aviso de cookies