近日,美国陆军部队司令部参谋部战略分析师Matthew Tetreau少校在美国陆军协会网站发表文章,认为人工智能具备诸多优势且对任务指挥的未来至关重要,但人类参谋应当保留某些职能,如对于形成理解至关重要的任务不应完全委托给算法。

人工智能(AI)技术能够使指挥官和参谋人员做出更明智、更快速的决策。在当今时代,整合和分析指挥官所能获取的海量数据几乎必然要依赖人工智能工具。更重要的是,随着对手采用人工智能规划工具,战斗和胜利所需的决策速度很可能超过人类认知能力的极限。尽管人工智能提供了诸多优势,但文章作者认为,人类参谋应当保留某些职能,即使这会在效率上付出一定代价。正如人工智能对任务指挥的未来至关重要而不容忽视,某些对于形成理解至关重要的任务也不应完全委托给算法。
正如美国前总统德怀特•D•艾森豪威尔所言:“计划本身可能毫无价值,但规划过程却至关重要”,这强调了过程相较于输出的价值。虽然人工智能工具可能会产生可用的计划,但军事专业参谋人员必须权衡人工智能在速度和人力方面的优势并审慎规划过程所带来的理解力和适应性。未来几年,美国陆军所做的决策将建立机构规范、标准和方法来驾驭人工智能技术。将人工智能融入参谋部门需要一种深思熟虑、细致入微的方法,以协同人工智能和人类各自独特的优势。
1 军事人工智能:从构想到现实
近年来,美军已经发布了多种代表各种潜在应用的人工智能工具。如,CamoGPT和NIPRGPT是基于聊天的军用文本生成程序;美国海军陆战队大学使用大型语言模型(LLM)为野战军官专业军事教育提供支持。
人工智能辅助规划如今已成为专业军事规划者们的“必修课”。目前有许多人工智能作战规划工具处于开发阶段,其中最典型的是“行动方案GPT”(COA-GPT)。该算法的开发者表示,COA-GPT利用大语言模型快速开发有效的行动方案,指挥官可以输入任务细节和部队描述(支持文本和图像格式)并在几秒钟内收到多个战略上对齐的行动方案。这类工具能够加速决策过程并减少指挥部足迹,这在未来高强度冲突中可能成为优势,甚至是决定性的优势。
2 人类参谋的不可替代性:算法的局限
规划不仅仅是行动方案制定或命令生成。“美国陆军设计方法论”或“军事决策过程”等决策过程的价值,更多地在于参谋人员的体验学习,而不是任何输出或产品。这些过程对于培养共同理解和适应性至关重要。虽然人工智能可能很快就能执行与军事参谋相关的许多职能,但作者建议,至少在短期内,人类应当保留那些培养共同理解和促进适应性的过程。
将高阶认知任务委托给人工智能有可能牺牲严格集体分析所带来的共同理解。在大多数情况下,与生成理解相关的过程比任何有形输出更为重要。例如,问题框定通常涉及处理政治环境、政策细微差别和军事问题本质的复杂性。虽然利用算法实现问题框定输出(如问题陈述或工作路线)可能有助于总结关于当前和期望环境的相关点,但问题框定这一过程能够在参谋人员之间形成一种共同理解,这种理解不太可能通过审查任何算法输出而实现。同样,任务分析的过程,而不是任何产品或输出,使参谋人员能够评估风险,将紧急事件和信息置于背景中,并评估敌军、友军、天气等因素对环境的影响。
问题框定这一过程往往能揭示先前未察觉的问题、相关因素和关系,其复杂性和细微差别达到了一种即使是很全面的产品也不太可能复现的程度。换句话说就是,参谋人员能够在行动中学习。因此,规划参谋能够有效地适应新出现的威胁和动态事件。正如《军事革命动力学》的作者,军事历史学家威廉森•默里所建议的,“军事效能最重要的属性是适应实际战斗和冲突条件的能力。”适应不仅需要对动态战场条件作出反应,还需要重新定位自己的理解、假设和方法。这种重新定位是许多当前人工智能模型的弱点。《无人军队》的作者保罗•沙尔虽然赞扬人工智能工具的速度和新颖方法,但也警告说,即使在相对有界的环境中,人工智能模型“也难以适应哪怕是适度的变化”。他总结道:“在现实世界中,敌人可能采取的行动空间是开放式的,环境不受高度约束,脆弱性可能是一个主要缺点。”
同样重要的是,问题框定确定了参谋面临的问题。解决正确问题的重要性,以及尽可能清晰地表达这个问题,对于任何有参谋经验的人来说都是显而易见的。算法当然可以提出“错误问题的正确答案”,而且可能比人类做得更好,但算法能否框定问题以识别军事问题的本质?同样,它能否在其建议的军事行动与上级意图,最终到政治目标之间,确定因果链?
在不久的将来,人工智能工具很可能能够告诉作战人员如何从A点到B点进行机动,其效果与人类规划者一样好甚至更好。然而,问题是人工智能能否告知是否应该去B点,为什么应该去B点,或者去B点如何嵌套在作战和战略框架内。实际上,“如何”这一问题是一种被称为“黑盒问题”的现象,即人工智能模型如何针对给定问题得出结论通常是不清楚的。如果不了解特定行动方案背后的理由,指挥官可能会发现难以评估和信任人工智能生成的建议。
3 人机协同:构建智能参谋体系
如果认为参谋工作和规划的价值完全来自输出,那么一旦人工智能输出的质量超过参谋人员,就应该将这些功能交给人工智能程序。然而,如果接受在优质规划过程中自然发生的意义构建过程具有价值,那么就必须确定如何最好地利用人工智能来支持这一过程。假设未来存在两种极端情况,一种情况是人工智能程序替代了大部分参谋人员,只有少数处理者留下来管理数据或维护硬件;另一情况是避免将人工智能整合到规划过程中,无论技术进步如何或对手从技术中获得的优势如何。当然,在这两个极端情况之间存在一种利用人工智能使参谋能够发挥作用的方法。
人类通过应用判断来解决复杂问题,进而创造理解。另一方面,人工智能应当完成与明确定义问题相关的任务,特别是当这些问题繁琐、耗时或涉及人类无法可靠处理的更多数据时。人机协同规划既能提高效率,又能使分析过程的风险最小化。例如,人工智能赋能的参谋可能通过依靠人工智能工具更快地构建图形产品,如改进型组合障碍覆盖图;被传感器数据淹没的参谋可能通过依靠人工智能从大数据集中识别相关数据并准备更好的决策支持工具;指挥部可能通过不断进行模拟推演来说明一系列潜在结果,从而改善其行动方案分析。
军事规划和决策过程往往成为生成输出以回答特定任务问题的练习。在某种程度上,人工智能工具应当执行这一功能以实现更快的决策。然而,特别是在较高层级,提出正确的问题至少与回答问题一样重要。因为任何算法的输出都是与其要解决的问题相对应的,人工智能规划工具依赖人类来定义问题的参数。人工智能研究人员常说,人工智能模型只与其算法和它们被输入的数据一样好。
在不太遥远的未来,指挥官将面临决定将哪些任务委托给人工智能的决策。个人领导背景和教育、程序成熟度、参谋部门和服务政策以及个人和机构对技术的信任等因素都将影响这些决策。然而,在可预见的未来,作者建议人类牢牢把握定义和分析问题的责任。只有这样,才能利用规划过程的好处来建立共同理解,促进适应性,并确保解决正确的问题。
4 结语
战争从根本上是一种人类活动,对人工智能的使用应当增强而不是替代人类指挥官和参谋的分析力量。人工智能无疑是实现决策优势的关键工具,并将在未来几年在作战规划中发挥重要作用。然而,人工智能不能以侵蚀共同理解和适应性为代价来取代审慎规划。未来,作战参谋必须保留一些传统的参谋职能,以平衡过程的价值与现代战斗所要求的人工智能赋能的决策速度。