Las armas inteligentes serán para nosotros lo que para los dinosaurios fue el asteroide que los borró de la faz de la tierra. Así lo ve Khaqan Ahmad. Este socio del centro para la investigación estratégica y contemporánea de Pakistán está convencido de que el avance en la autonomía de las armas implica un retroceso en la capacidad humana para controlarlas. «Si la singularidad tecnológica se materializa, lo hará a expensas del armamento invencible y la extinción del homo sapiens«, sentencia.

«Ahí va otro cenizo», pensarás para tus adentros. Y con razón. No te vamos a negar que una buena parte de los párrafos que componen este ensayo de Ahmad podrían rematarse con la -por otra parte irrefutable- afirmación vamos a morir todos, pero también es verdad que este experto en relaciones internacionales no está solo en sus advertencias.

La tecnología y el armamento siempre han sido partes inseparables de la guerra

En el equipo apocalíptico están desde Yoshua Bengio, uno de los padres de la inteligencia artificial moderna, hasta Elon Musk, pasando por Mustafa Suleyman, fundador de Deepmind y una larga lista de CEOs de todo el mundo. Hace ya casi dos años que se unieron para firmar una carta dirigida al organismo de la ONU que tendría que regular este asunto. «Una vez desarrolladas, estas armas permitirán que los conflictos armados se planteen a unas escalas mayores que nunca y en rangos de tiempo más veloces que las que puede comprender el ser humano. Estas pueden ser armas de terror, armas que déspotas y terroristas pueden usar contra población inocente. Una vez abierta la caja de Pandora, será difícil cerrarla», alertaban.

Evolución del desarrollo de funcionalidades autónomas en armas

Fuente: SIPRI

La carrera del armamento autónomo ya está en marcha. Para Ahmad, basta con que sigamos cultivando nuestra vieja costumbre de repetir la historia. «La tecnología y el armamento siempre han sido partes inseparables de la guerra. Cada vez que se ha producido un avance tecnológico, este ha llevado las armas a un nivel superior», afirma. Así ocurrió, por ejemplo, cuando inventamos la pólvora y más recientemente con el desarrollo de las armas nucleares que han hecho posible la aniquilación masiva. La protagonista ahora es la inteligencia artificial general. «Una vez que las armas desarrollen la capacidad de comprender, la era del armamento controlado por el homo sapiens será un lejano cuento de hadas».

Lo bueno es que aún queda nos camino para poder soñar siquiera con unas armas cuya inteligencia se equipare con la nuestra, y que no está tan claro que seamos capaces de recorrer esta senda hasta el más inquietante de sus extremos. «El armamento con absoluta autonomía no es ni será posible porque la inteligencia artificial no puede modelarse a partir de la humana debido a razones constitutivas, estructurales y de restricciones funcionales», asegura.

Lo malo es que hasta los científicos de las fuerzas aéreas de los Estados Unidos tienen el ojo puesto en un futuro donde la inteligencia artificial general sea posible. Por lo pronto, Paul Yarworsky lo ve viable. De acuerdo con su Modelo para la inteligencia general, lo único que necesitamos para cerrar la brecha que aún separa nuestras capacidades de las de las máquinas es un cambio de perspectiva que nos ayude a comprender y describir mejor «el proceso de la inteligencia» y el procesamiento que esta hace de la información en múltiples niveles de abstracción. Y luego, que eso mismo lo hagan las máquinas.

Lo que no van a tener las fuerzas armadas es el apoyo de Google. A principios del año pasado, supimos de la participación del gigante en un proyecto del Departamento de Defensa de los Estados Unidos. El avance de este programa, que estaba centrado en el procesamiento autónomo de grabaciones recopiladas por drones, quedó congelado en junio, después de que los propios trabajadores de la Google firmaran una carta exigiendo que la empresa se mantenga al margen del negocio de la guerra.

En cualquier caso, Ahmad también mira con ojos catastrofistas ese otro posible futuro de máquinas no tan listas. Su mayor preocupación es que ocurra con la guerra lo que ocurrió con el Go. En 2016, un sistema de inteligencia artificial desarrollado por Google -AlphaGo- venció al campeón mundial de este antiguo juego de mesa en cuatro de cinco partidas. El entrenamiento de este jugador artificial había consistido en el estudio de juegos humanos, pero desembocó en jugadas novedosas, que nunca nadie había empleado.

Hasta este punto, Ahmad conserva la calma. Sus problemas empiezan con AlphaGo Zero. Esta inteligencia artificial, creada un año más tarde, logró vencer a su predecesora en cien juegos sobre cien. Y lo hizo sin participación humana. Y -ahora viene lo peor- en cuarenta días de aprendizaje. «En solo cuarenta días superó 2.500 años de estrategia y conocimiento. La inteligencia artificial podría acentuar la velocidad, la letalidad y el alcance del armamento a este ritmo. Esto cambiará todas las dimensiones de la guerra del mismo modo y, si las armas inteligentes superan la singularidad, incluso catalizará la extinción del homo sapiens«, insiste.

MÁS INFORMACIÓN

Fuente: El País