El nuevo temor relacionado con la IA: robots asesinos de Hollywood se convierten en herramientas del ejército
Cuando el presidente Joe Biden anunció en octubre las fuertes restricciones a la venta de chips de computadora más avanzados a China, en parte explicó la decisión como una manera de ofrecerle a la industria estadounidense una oportunidad de recuperar su competitividad.
No obstante, en el Pentágono y el Consejo de Seguridad Nacional había un segundo objetivo: el control de armas.El Times Una selección semanal de historias en español que no encontrarás en ningún otro sitio, con eñes y acentos. Get it sent to your inbox.
En teoría, si las fuerzas armadas chinas no pueden obtener esos chips, es probable que se ralenticen sus proyectos para desarrollar armas que funcionen con inteligencia artificial. Esto le daría a la Casa Blanca, y al mundo entero, tiempo para determinar ciertas reglas relacionadas con el uso de la inteligencia artificial en sensores, misiles y armas cibernéticas para prevenir algunas de las pesadillas que se han plasmado en películas de Hollywood: computadoras y robots asesinos autónomos que se independizan de sus creadores humanos.
Ahora, la nube de temor en torno al popular ChatGPT y otros tipos de software que funcionan con inteligencia artificial ha hecho que la restricción de venderle chips a China solo parezca una solución temporal. El 4 de mayo, Biden participó en una reunión celebrada en la Casa Blanca con ejecutivos del sector tecnológico que están teniendo problemas para limitar los peligros de esta tecnología, y su primer comentario fue: “Lo que ustedes están haciendo tiene un gran potencial y también un gran riesgo”.
Según sus asesores en seguridad nacional, esto fue un reflejo de los recientes informes clasificados sobre la posibilidad de que la nueva tecnología modifique drásticamente la guerra, el conflicto cibernético y —en el caso más extremo— la toma de decisiones en torno al uso de armas nucleares.
Pero incluso mientras Biden expresaba su advertencia, algunos funcionarios del Pentágono afirmaban en foros sobre tecnología que creían que no era una buena idea esa pausa de seis meses en el desarrollo de las próximas generaciones de ChatGPT y tipos similares de software: ni los chinos ni los rusos van a esperar.
“Si nos detenemos, adivinen quiénes no lo harán: nuestros potenciales enemigos en el extranjero”, señaló John Sherman, el director de información del Pentágono, el 3 de mayo . “Tenemos que seguir adelante”.
Su afirmación categórica dejó en evidencia la tensión que experimenta todo el sector de defensa en la actualidad. En realidad, nadie sabe lo que pueden hacer estas nuevas tecnologías cuando se trata de desarrollar y controlar armas, y nadie tiene idea del tipo de régimen de control de armas que podría funcionar, si es que existe alguno.
El presagio es impreciso, pero muy preocupante. ¿Acaso ChatGPT podría empoderar a actores que antes no tenían fácil acceso a tecnología destructiva? ¿Podría acelerar las confrontaciones entre las superpotencias y no dejar mucho tiempo para la diplomacia y la negociación?
Hay una serie de conversaciones informales que se están produciendo en la industria —todas informales— sobre cómo serían las reglas de seguridad con respecto a la inteligencia artificial”, afirmó Eric Schmidt, expresidente de Google que fue presidente de la Junta de Asesoramiento en Innovación.
“La industria no es tonta y estamos viendo intentos de autorregulación”, señaló Eric Schmidt, un expresidente de Google que fungió como presidente inaugural de la Junta de Asesoramiento en Innovación de 2016 a 2020.
“Así que hay una serie de conversaciones informales que se están produciendo en la industria —todas informales— sobre cómo serían las reglas de seguridad con respecto a la inteligencia artificial”, comentó Schmidt, quien ha escrito, junto con el exsecretario de Estado Henry Kissinger, una serie de artículos y libros sobre la posibilidad de que la inteligencia artificial trastoque la geopolítica.
El intento preliminar de ponerles barreras a estos sistemas es evidente para cualquiera que haya probado las versiones iniciales de ChatGPT. Los bots no contestan preguntas sobre cómo hacerle daño a alguien con una mezcla de drogas, por ejemplo, ni cómo dinamitar una presa o paralizar centrifugadoras nucleares, que son operaciones que han ejecutado Estados Unidos y otros países sin contar con la ventaja de las herramientas de inteligencia artificial.
Pero estas listas negras de acciones solo ralentizarán el uso indebido de estos sistemas; pocas personas creen que puedan detener por completo esos intentos. Siempre hay un truco para eludir las restricciones de seguridad, como podrá confirmar cualquiera que haya intentado desactivar los insistentes pitidos del sistema de advertencia del cinturón de seguridad de un automóvil.
Aunque el nuevo software ha popularizado esta discusión, no es nada nuevo para el Pentágono. Hace una década se publicaron las primeras reglas sobre el desarrollo de armas autónomas. Hace cinco años se estableció el Centro Conjunto de Inteligencia Artificial del Pentágono para estudiar el uso de la inteligencia artificial en combate.
Algunas armas ya funcionan con piloto automático. Desde hace mucho tiempo, los misiles Patriot —que derriban misiles o aviones que entran a un espacio aéreo protegido— han tenido un modo “automático” que les permite disparar sin intervención del ser humano cuando son superados por objetivos que llegan más rápido de lo que podría reaccionar un ser humano. Pero deben estar supervisados por humanos que puedan suspender los ataques de ser necesario.
Desde hace mucho tiempo, los misiles Patriot, los cuales derriban misiles o aviones que entran a un espacio aéreo protegido, han tenido un modo “automático”. Pero deben estar supervisados por humanos que puedan suspender los ataques de ser necesario.
El Mosad de Israel llevó a cabo el asesinato de Mohsen Fakhrizadeh, el principal científico nuclear de Irán, utilizando una ametralladora autónoma asistida por inteligencia artificial, aunque al parecer hubo un alto grado de control remoto. Rusia declaró recientemente que comenzó a fabricar —pero aún no ha implementado— su torpedo nuclear Poseidón. Si está a la altura de las expectativas rusas, el arma podría viajar a través de un océano de forma autónoma, evadiendo las defensas antimisiles existentes, y entregar un arma nuclear pocos días después de su lanzamiento.
Hasta el momento no existen tratados o acuerdos internacionales que regulen este tipo de armas autónomas. En una era en la que los acuerdos de control de armas se abandonan más rápido de lo que se negocian, hay pocas perspectivas de un tratado de este tipo. Pero el tipo de desafíos planteados por ChatGPT y programas similares son diferentes y, en cierto modo, más complicados.
En las fuerzas militares, los sistemas que cuentan con inteligencia artificial pueden acelerar el ritmo de las decisiones en el campo de batalla al grado de generar riesgos totalmente nuevos de ataques accidentales o la posibilidad de decisiones derivadas de alarmas confusas o deliberadamente falsas de ataques próximos.
“Un problema básico con la inteligencia artificial en las fuerzas armadas y en la seguridad nacional es cómo defenderse de los ataques que son más rápidos que la velocidad con la que los seres humanos toman decisiones, y creo que ese problema no está resuelto”, comentó Schmidt. “En otras palabras, el misil llega tan rápido que tiene que haber una respuesta automática. ¿Qué sucede si es una señal falsa?”.
La Guerra Fría estuvo plagada de historias de advertencias falsas: en una ocasión, una cinta de entrenamiento —diseñada para practicar la respuesta nuclear— se colocó en el sistema incorrecto y detonó la alerta de un ataque soviético masivo inminente. (El buen juicio hizo que la situación no empeorara). Paul Scharre, del Centro para la Nueva Seguridad Estadounidense, señaló en Army of None, su libro de 2018, que hubo “al menos 13 ‘casi incidentes’ nucleares entre 1962 y 2002”, lo que “da crédito a la opinión de que estos ‘casi incidentes’ son condiciones normales, aunque aterradoras, de las armas nucleares”.
Por esa razón, cuando las tensiones entre las superpotencias eran mucho más bajas de lo que son en la actualidad, una serie de presidentes intentaron negociar formas para generar más tiempo en la toma de decisiones nucleares en todos los bandos, para que nadie se precipitara al conflicto. Pero la IA generativa amenaza con llevar a los países en la dirección contraria, hacia una toma de decisiones más rápida.
La buena noticia es que lo más probable es que las principales potencias sean cuidadosas, porque saben cómo sería la respuesta de un adversario. Pero, hasta ahora, no hay reglas acordadas.
Anja Manuel, exfuncionaria del Departamento de Estado quien en la actualidad es directora del grupo consultor Rice, Hadley, Gates and Manuel, escribió recientemente que incluso si China y Rusia no están listas para las conversaciones sobre el control de armas vinculadas a la IA, las reuniones sobre el tema originarán debates sobre qué usos de la IA son percibidos como “inaceptables”.
Por supuesto, al Pentágono también le preocupará aceptar muchos límites.
“Luché muy duro para conseguir una política de que si tienes elementos autónomos de armas, necesitas una manera de apagarlos”, afirmó Danny Hillis, un científico informático pionero en la computación paralela usada para la inteligencia artificial. Hillis, quien también formó parte de la Junta de Asesoramiento en Innovación, afirmó que los funcionarios del Pentágono respondieron diciendo: “Si podemos apagarlos, el enemigo también puede apagarlos”.
Los mayores riesgos podrían provenir de actores individuales, terroristas, grupos de ransomware (secuestro de datos) o naciones más pequeñas con habilidades cibernéticas avanzadas —como Corea del Norte— que aprendan a clonar una versión más pequeña y menos restringida de ChatGPT. Podrían descubrir que el software de la IA generativa es perfecto para acelerar los ciberataques y atizar la desinformación.
Tom Burt, quien lidera las operaciones de confianza y seguridad en Microsoft, empresa que ha acelerado el uso de la nueva tecnología para renovar sus motores de búsqueda, dijo en un foro reciente en la Universidad George Washington que pensaba que los sistemas de inteligencia artificial ayudarían a quienes se defienden a detectar un comportamiento anormal con mayor rapidez de lo que ayudarían a los atacantes. Hay especialistas que no están de acuerdo. Sin embargo, Burt señaló que temía que la inteligencia artificial pudiera “potenciar” la difusión de desinformación dirigida.
Todo esto augura una era totalmente nueva en el control de armas.
Algunos expertos afirman que, como será imposible detener la propagación de ChatGPT y de sistemas de software parecidos, la mayor esperanza es restringir los chips especializados y cualquier otra energía computacional necesaria para impulsar esta tecnología. Sin duda, este será uno de los muchos planes de control de armas que se plantearán en los próximos años, en un momento en que al menos a las principales potencias nucleares parece no interesarles negociar sobre las armas viejas, mucho menos sobre las nuevas.