锐意创新 · 敏锐洞察 · 锐不可当

算法重塑战局:美军10万AI智能体背后的“数字士兵”革命

近日,美国国防部宣布,已通过“GenAI.mil”平台部署超过10万个AI智能体。这些被称为“数字士兵”的算法单元,并非实体机器人,而是运行在“作战数据平台”上的虚拟存在,可24小时不间断处理来自卫星、无人机、侦察信号乃至社交媒体的多源实时数据。这一举措标志着美国在军事AI主导化的道路上迈出关键一步,也预示着现代战争正从“钢铁对决”迈向“算法博弈”的全新时代。

这场变革的核心,是2026年初美国战争部发布的《人工智能加速战略》。该战略确立“AI优先”导向,明确提出要以人工智能重构作战流程与战术体系。其目标不仅是提升效率,更是要通过“模块化开放架构”“模型对齐”“战时模式”等机制,实现技术从研发到战场应用的极速转化,确保美军在军事AI领域的绝对优势。

2026年2月对伊朗的军事行动,成为这一战略的实战检验场。Maven人工智能系统在其中扮演决策核心角色:从海量情报中识别目标、生成作战方案、指挥执行并实时评估毁伤效果。据测算,AI辅助下,美军在24小时内打击超过1000个目标,创下单日行动新高。一个20人的炮兵单位,在AI支持下完成了原本需要2000名参谋才能处理的工作量。开发Maven系统的Palantir公司高管直言,这是“第一场由AI驱动、增强并显著提升作战效能的规模化军事行动”。

在这场“AI优先”的转型中,Palantir迅速崛起为“国防科技新贵”。这家成立于2003年、曾获美国中央情报局投资的企业,近十年军工业务量从5000万美元跃升至24亿美元。其成功既得益于美军AI战略提速,也与企业创始人彼得·蒂尔的政治资源密切相关。

与此同时,谷歌、OpenAI、SpaceX等7家前沿AI企业也与国防部达成协议,将技术集成至Maven系统,用于“合法的”作战行动。值得注意的是,这些企业大多经历了从“拒绝”到“合作”的转变:谷歌曾于2018年因员工抗议退出军方项目,并承诺不将AI用于武器开发,但2024年后态度反转,将Gemini部署至国防部网络;OpenAI则在2024年删除“禁止军事用途”条款,并在冲突爆发当天允许国防部在机密网络中使用ChatGPT。

并非所有企业都选择妥协。Anthropic公司因坚持安全原则,拒绝让AI在无监督情况下操控致命武器,被五角大楼起诉并排除在合作名单之外。这一分歧凸显了AI军事化进程中商业伦理与国家安全之间的深层矛盾。

希鸥网观察认为,AI军备竞赛已超越技术层面,演变为一场涉及伦理、政治与产业生态的系统性博弈。当科技企业被纳入国防供应链,其技术选择不再仅由市场决定,而成为地缘竞争的一部分。而“民用转军用”的路径,也让开发者面临道德困境:他们的代码,可能最终转化为战场上的杀伤力。

放眼全球,各国正以不同路径推进国防AI化。欧洲面临两难:一方面,美国推动北约在俄边界部署AI“自动防御区”,并推广Maven系统;另一方面,欧盟强调技术自主,警惕对美依赖。德国已明确拒绝让Palantir访问其国家级机密数据库。

而在亚洲,军事AI自主化进程更为激进。土耳其军用无人机占据全球三分之二市场份额,其“Kargu-2”型无人机据称已实现对人类的自主攻击;日本则在2025年发布《AI武器研发指南》,为AI用于攻击性武器打开政策绿灯。

与核能不同,AI不仅是“威慑”,更是“常用”。其6至18个月的技术迭代周期,迫使各国持续投入, lest 落后即被淘汰。而其“民用先行、军用跟进”的发展路径,也模糊了和平与战争的技术边界。

更值得警惕的是,AI正在重塑战争伦理。在美伊冲突中,一所伊朗小学被“战斧”导弹夷为平地,170多人丧生。调查指出,这是AI系统调用过时数据导致的“目标识别错误”。当人类从“决策者”退化为“按键者”,责任归属变得模糊——谁该为误杀平民负责?是程序员、指挥官,还是算法本身?

随着AI系统逐渐闭合“发现-决策-打击-评估”的杀伤链,人类对战争的控制力正在被稀释。希鸥网观察指出,当机器掌握越来越多的主动权,我们不仅需要追问“技术能否做到”,更应深思“是否应当如此”。算法可以优化效率,但无法替代人类对生命与正义的判断。

(本稿件整理自网络公开报道,将同步发布希鸥网、创新日报、锐CEO网、NasdaqLtd观察网、斯贝瑞品牌资讯、AI联播等网站,编辑:张多金,微信号:meisceo29,写稿、投稿咨询联系我。)

阅读量:1178
阅读时间:4分钟