Mauricio Serfatty Godoy/ WIRED/05-03/2026
Mientras empresas como Anthropic debaten los límites de los usos militares de la IA, Smack Technologies entrena modelos para planificar operaciones en el campo de batalla.
Puede que Anthropic tenga reparos a la hora de dar al ejército estadounidense acceso ilimitado a sus modelos de IA, pero algunas startups están creando IA avanzada específicamente para aplicaciones militares.
Smack Technologies, que anunció una ronda de financiamiento de 32 millones de dólares esta semana, está desarrollando modelos que, según asegura, pronto superarán las capacidades de Claude a la hora de planificar y ejecutar operaciones militares. Y, a diferencia de Anthropic, la startup parece menos preocupada por prohibir tipos específicos de uso militar.
«Cuando sirves en el ejército, juras que vas a servir honorablemente, legalmente, de acuerdo con las reglas de la guerra», afirma el CEO Andy Markoff. “Para mí, las personas que despliegan la tecnología y se aseguran de que se utiliza éticamente tienen que llevar uniforme”.
¿Cómo los gobiernos espían a los manifestantes? Y cómo evitarlo: | Incognito Mode
Markoff no es un ejecutivo de inteligencia artificial cualquiera. Como excomandante del Comando de Operaciones Especiales de la Infantería de Marina de EE UU, ayudó a ejecutar operaciones especiales de alto riesgo en Irak y Afganistán. Cofundó Smack con Clint Alanis, otro exmarine, y Dan Gould, un informático que anteriormente trabajó como vicepresidente de tecnología en Tinder.
Los modelos de Smack aprenden a identificar planes de misión óptimos a través de un proceso de ensayo y error, similar a cómo Google entrenó a su programa AlphaGo en 2017. En el caso de Smack, la estrategia consiste en ejecutar el modelo a través de varios escenarios de juegos de guerra y hacer que analistas expertos proporcionen una señal que indique al modelo si la estrategia elegida dará sus frutos. Puede que la startup no tenga el presupuesto de un laboratorio convencional de IA de frontera, pero está gastando millones para entrenar sus primeros modelos de IA, confirma Markoff.
Líneas de batalla
El uso militar de la IA se ha convertido en un tema candente en Silicon Valley después de que funcionarios del Departamento de Defensa se enfrentaran a los ejecutivos de Anthropic por las condiciones de un contrato de unos 200 millones de dólares.
Una de las cuestiones que provocaron la ruptura, que llevó al Secretario de Defensa Pete Hegseth a declarar a Anthropic un riesgo para la cadena de suministro, fue el deseo de Anthropic de limitar el uso de sus modelos en armas autónomas.
Markoff señala que el furor oculta el hecho de que los grandes modelos de lenguaje actuales no están optimizados para uso militar. Los modelos de uso general como Claude son buenos para resumir informes, aclara. Pero no están entrenados con datos militares y carecen de una comprensión humana del mundo físico, lo que los hace poco adecuados para controlar el hardware físico. «No son capaces en absoluto de identificar objetivos», manifiesta Markoff.
«Que yo sepa, nadie en el Departamento de Guerra está hablando de automatizar completamente la cadena de muerte», indica, refiriéndose a los pasos que intervienen en la toma de decisiones sobre el uso de la fuerza letal.
El alcance de la misión
Estados Unidos y otros ejércitos ya utilizan armas autónomas en determinadas situaciones, como en los sistemas de defensa antimisiles que deben reaccionar a velocidades sobrehumanas.
«EE UU y más de otros 30 Estados ya están desplegando sistemas de armas con diversos grados de autonomía, incluidos algunos que yo definiría como totalmente autónomos», destaca Rebecca Crootof, una autoridad en las cuestiones legales que rodean a las armas autónomas en la Facultad de Derecho de la Universidad de Richmond.
En el futuro, los modelos especializados como en el que está trabajando Smack podrían utilizarse también para planificar misiones, según Markoff. Los modelos de la empresa están pensados para ayudar a los mandos a automatizar gran parte de la pesada tarea que supone esbozar los planes de una misión. Según Markoff, la planificación de misiones militares suele hacerse manualmente con pizarras y blocs de notas
“Si EE UU entrara en guerra con un ‘rival cercano’ como Rusia o China”, añade Markoff, «la toma de decisiones automatizada podría ofrecer a EE UU un muy necesario «dominio de la decisión».
Pero sigue siendo una incógnita si la IA podría utilizarse de forma fiable en tales circunstancias. Un experimento reciente, llevado a cabo por un investigador del King’s College de Londres, demostró de forma alarmante que las LLM tendían a intensificar los conflictos nucleares en los juegos de guerra.
Los conflictos recientes, en particular la guerra entre Rusia y Ucrania, han puesto de relieve la importancia de los sistemas semiautónomos de bajo costo construidos con hardware y software comerciales. En 2023, escribí sobre la Armada estadounidense probando nuevos tipos de sistemas autónomos en el Golfo Pérsico como forma de identificar drones operados por insurgentes respaldados por Irán, entre otras cosas.
Algunos expertos opinan que es necesario establecer unas líneas rojas más claras en torno a la forma en que el ejército despliega la IA, sobre todo teniendo en cuenta las condiciones indefinidas de los contratos que se están firmando actualmente.
Anna Hehir, responsable de gobernanza militar de la IA en el Future of Life Institute, una organización sin fines de lucro que se opone al desarrollo de armas autónomas controladas por IA, expresa que aunque los modelos de Anthropic no se utilicen ahora para controlar sistemas totalmente autónomos, podrían integrarse en la cadena de la muerte de forma problemática.
«La IA es demasiado poco fiable, impredecible e inexplicable para ser utilizada en escenarios de tan alto riesgo», explica Hehir. «Estos sistemas no pueden reconocer quién es un combatiente y quién un niño, y mucho menos el acto de rendición».
Markoff agrega que los límites a la autonomía podrían ser necesarios debido al caos que conlleva un conflicto. «Nunca he ejecutado una operación en el mundo real que haya salido siquiera un 50% según lo previsto, y eso no va a cambiar», concluye.