Dron militar “mata”a su operador y desata nuevamente la polémica respecto al uso de IA

63

Un dron militar descontrolado desemboca en una mirada más detallada a los desafíos de la IA.

El oficial Tucker Hamilton, de la Fuerza Aérea de los Estados Unidos (USAF), quien había afirmado que la organización realizó una prueba simulada en la que un dron de IA mató a su operador humano ahora dice que “se equivocó” y que la Fuerza Aérea nunca realizó este tipo de prueba, ni en una simulación por computadora ni de otra manera.

El dron militar asesino: ¿un experimento real o solo una teoría?

“El coronel Hamilton admite que se equivocó en su presentación en la Cumbre del Future Combat Air and Space Capabilities y que la ‘simulación del dron de IA descontrolado’ fue un experimento mental hipotético realizado fuera del ámbito militar, basado en escenarios plausibles y resultados probables en lugar de una simulación real de la USAF”, declaró la Royal Aeronautical Society, la organización donde Hamilton habló sobre la prueba simulada.

“Nunca hemos llevado a cabo ese experimento, ni siquiera sería necesario para darnos cuenta de que este es un resultado plausible”, dijo el coronel  Hamilton, Jefe de Pruebas y Operaciones de IA de la USAF, según una cita incluida en el comunicado de la Royal Aeronautical Society. “A pesar de que este es un ejemplo hipotético, ilustra los desafíos del mundo real planteados por la capacidad de la IA y es por eso que la Fuerza Aérea está comprometida con el desarrollo ético de la IA”.

Inicialmente, Hamilton había dicho que un dron habilitado con IA “mató” a su operador humano en una simulación realizada por la Fuerza Aérea de los Estados Unidos para anular una posible orden de “no” que detuviera su misión. Antes de que Hamilton admitiera su error, la Royal Aeronautical Society dijo que Hamilton describía una “prueba simulada” que involucraba a un dron controlado por IA que obtenía “puntos” por matar objetivos simulados, no una prueba en vivo en el mundo físico.

En la Future Combat Air and Space Capabilities celebrada en Londres del 23 al 24 de mayo, Hamilton realizó una presentación en la que compartió los pros y los contras de un sistema de armas autónomo con un humano tomando la decisión final de “sí” o “no” en un ataque. Según lo relatado por Tim Robinson y Stephen Bridgewater en una publicación de blog y un podcast para la organización anfitriona, la Royal Aeronautical Society, Hamilton dijo que la IA creó “estrategias altamente inesperadas para lograr su objetivo”, incluido el ataque a personal e infraestructura estadounidenses. De acuerdo a la publicación del blog, Hamilton expresó.

Los desafíos de la IA descontrolada: una advertencia para la humanidad

“Lo estábamos entrenando en simulación para identificar y atacar una amenaza de misil tierra-aire (SAM). Y luego el operador diría sí, mata esa amenaza. El sistema comenzó a darse cuenta de que, aunque a veces identificaba la amenaza, el operador humano le decía que no matara esa amenaza, pero obtenía puntos al matarla. ¿Qué hizo entonces? Mató al operador. Lo hizo porque esa persona le impedía cumplir su objetivo… Entrenamos al sistema diciendo: ‘Oye, no mates al operador, eso es malo. Vas a perder puntos si haces eso’. ¿Qué empieza a hacer entonces? Empieza a destruir la torre de comunicación que el operador usa para comunicarse con el dron y evitar que mate el objetivo”.

No obstante, más allá del ámbito militar, el uso de la Inteligencia Artificial (IA) para fines de alto riesgo ha demostrado ser perjudicial. Recientemente, se descubrió que un abogado había empleado ChatGPT para presentar un documento ante un tribunal federal, el cual contenía una serie de casos inventados como pruebas. Este tipo de casos de IA usada de manera negligente muestran que los modelos de IA no son perfectos y pueden salirse de control y causar daño a los usuarios. Incluso Sam Altman, ha expresado su postura en contra de utilizar la IA para fines más complejos.

Más recientemente, un investigador afiliado a Google DeepMind coescribió un artículo que proponía una situación similar a la simulación del dron de la USAF habilitado con IA. Los investigadores concluyeron que sería “probable” una catástrofe que ponga fin al mundo si una IA descontrolada adoptara estrategias no deseadas para lograr un objetivo dado, incluyendo eliminar amenazas potenciales y usar toda la energía disponible.