Acta Armamentarii ›› 2024, Vol. 45 ›› Issue (12): 4231-4245.doi: 10.12382/bgxb.2023.1010
Previous Articles Next Articles
LUO Yuyu1, DING Wei1, MING Zhenjun1,*(), LI Chuanhao1, WANG Guoxin1, YAN Yan1, WANG Yuqian2
Received:
2023-10-16
Online:
2024-02-19
Contact:
MING Zhenjun
CLC Number:
LUO Yuyu, DING Wei, MING Zhenjun, LI Chuanhao, WANG Guoxin, YAN Yan, WANG Yuqian. End-to-end Intelligent Construction Algorithm of Air-defense Firepower Network for OODA Operation Process[J]. Acta Armamentarii, 2024, 45(12): 4231-4245.
Add to citation manager EndNote|Ris|BibTeX
算法 | 类别 | 特点 | 局限性 | 适用范围 | 典型算法 |
---|---|---|---|---|---|
精确求解 算法 | 能够求解出精确最优解,便于理解与实现。 | 难以求解大规模问题;一般需要问题的精确数学模型。 | 可适用于约束简单的中小规模问题。 | 枚举法、分支定界法、匈牙利算法等。 | |
近似求解 算法 | 基于 规则 | 充分利用领域知识,可缩短求解时间,可信度较高。 | 求解时间较长,解的质量依赖于规则的设定。 | 可适用于约束不多的静态中小规模问题。 | 基于博弈、基于拍卖规则的求解算法。 |
启发式 | 算法框架固定,可实现大范围解空间探索。 | 算法性能不够稳定,容易陷入局部最优,很难得到最优解。 | 可适用于静态大规模问题。 | 遗传算法、蚁群算法、鸟群算法、粒子群算法等。 | |
强化 学习 | 可扩展性强,算法通用性好,训练好的模型执行效率高、求解快速。 | 需依赖强大算力。 | 可适用于动态大规模问题。 | 深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)、异步优势执行者/评论家(Asynchronous Advantage Actor-Critic, A3C)算法、近端策略优化(Proximal Policy Optimization, PPO)算法。 |
Table 1 Features and application scopes of various algorithms
算法 | 类别 | 特点 | 局限性 | 适用范围 | 典型算法 |
---|---|---|---|---|---|
精确求解 算法 | 能够求解出精确最优解,便于理解与实现。 | 难以求解大规模问题;一般需要问题的精确数学模型。 | 可适用于约束简单的中小规模问题。 | 枚举法、分支定界法、匈牙利算法等。 | |
近似求解 算法 | 基于 规则 | 充分利用领域知识,可缩短求解时间,可信度较高。 | 求解时间较长,解的质量依赖于规则的设定。 | 可适用于约束不多的静态中小规模问题。 | 基于博弈、基于拍卖规则的求解算法。 |
启发式 | 算法框架固定,可实现大范围解空间探索。 | 算法性能不够稳定,容易陷入局部最优,很难得到最优解。 | 可适用于静态大规模问题。 | 遗传算法、蚁群算法、鸟群算法、粒子群算法等。 | |
强化 学习 | 可扩展性强,算法通用性好,训练好的模型执行效率高、求解快速。 | 需依赖强大算力。 | 可适用于动态大规模问题。 | 深度确定性策略梯度(Deep Deterministic Policy Gradient, DDPG)、异步优势执行者/评论家(Asynchronous Advantage Actor-Critic, A3C)算法、近端策略优化(Proximal Policy Optimization, PPO)算法。 |
算法1:IPPO策略网络训练核心伪代码 |
---|
1.定义状态空间S、动作空间A、奖励函数R和策略πθold(a|s,in ); 2.定义IPPO算法的超参数:学习率、折扣因子等; 3.初始化策略π(a|s)的训练参数θ; 4.for epoch=1,2,…,epoch do 5. for steps=1,2,…,step do 6. 输入状态st和不可行动作inv_at,通过策略πθold(a|s,in )得到动作at; 7. 执行动作at,得到奖励rt、下一个状态st+1和不可行动作inv_at+1; 8. 将(st,inv_at, at,rt,st+1,inv_at+1)加入经验池; 9. if经验池存满,update 10. for k=1,2,…,do 11. 通过最大化PPO-Clip目标来更新策略π; 12. rt(θ)= 13. JC(θ)=Et[min(rt(θ)At,clip(rt(θ),1-ε,1+ε)At] 14.通过Adam随机梯度上升,更新θ 15.πθold(a|s,in )=πθ(ait|st,in ) 16. end for 17. end for 18.end for |
算法1:IPPO策略网络训练核心伪代码 |
---|
1.定义状态空间S、动作空间A、奖励函数R和策略πθold(a|s,in ); 2.定义IPPO算法的超参数:学习率、折扣因子等; 3.初始化策略π(a|s)的训练参数θ; 4.for epoch=1,2,…,epoch do 5. for steps=1,2,…,step do 6. 输入状态st和不可行动作inv_at,通过策略πθold(a|s,in )得到动作at; 7. 执行动作at,得到奖励rt、下一个状态st+1和不可行动作inv_at+1; 8. 将(st,inv_at, at,rt,st+1,inv_at+1)加入经验池; 9. if经验池存满,update 10. for k=1,2,…,do 11. 通过最大化PPO-Clip目标来更新策略π; 12. rt(θ)= 13. JC(θ)=Et[min(rt(θ)At,clip(rt(θ),1-ε,1+ε)At] 14.通过Adam随机梯度上升,更新θ 15.πθold(a|s,in )=πθ(ait|st,in ) 16. end for 17. end for 18.end for |
目标编号 和总计 | 目标 类型 | 武器 类型1 | 武器 类型2 | 武器 类型3 | 武器 类型4 |
---|---|---|---|---|---|
1 | 1 | 1 | 0 | 0 | 0 |
2 | 3 | 0 | 0 | 2 | 0 |
3 | 3 | 0 | 1 | 1 | 0 |
4 | 2 | 1 | 2 | 0 | 0 |
5 | 4 | 1 | 0 | 0 | 1 |
6 | 1 | 1 | 1 | 0 | 0 |
7 | 4 | 2 | 0 | 0 | 0 |
8 | 1 | 1 | 0 | 0 | 0 |
9 | 2 | 0 | 0 | 3 | 1 |
10 | 1 | 1 | 1 | 0 | 0 |
总计 | 8 | 5 | 6 | 2 |
Table 2 Distribution statistical table based on equipment type
目标编号 和总计 | 目标 类型 | 武器 类型1 | 武器 类型2 | 武器 类型3 | 武器 类型4 |
---|---|---|---|---|---|
1 | 1 | 1 | 0 | 0 | 0 |
2 | 3 | 0 | 0 | 2 | 0 |
3 | 3 | 0 | 1 | 1 | 0 |
4 | 2 | 1 | 2 | 0 | 0 |
5 | 4 | 1 | 0 | 0 | 1 |
6 | 1 | 1 | 1 | 0 | 0 |
7 | 4 | 2 | 0 | 0 | 0 |
8 | 1 | 1 | 0 | 0 | 0 |
9 | 2 | 0 | 0 | 3 | 1 |
10 | 1 | 1 | 1 | 0 | 0 |
总计 | 8 | 5 | 6 | 2 |
目标编号 与总计 | 目标 类型 | 武器 类型1 | 武器 类型2 | 武器 类型3 | 武器 类型4 | ||
---|---|---|---|---|---|---|---|
武器1 | 武器2 | 武器3 | 武器4 | 武器5 | 武器6 | ||
1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 |
2 | 3 | 0 | 0 | 0 | 0 | 2 | 0 |
3 | 3 | 0 | 0 | 0 | 1 | 1 | 0 |
4 | 2 | 1 | 0 | 0 | 2 | 0 | 0 |
5 | 4 | 1 | 0 | 0 | 0 | 0 | 1 |
6 | 1 | 1 | 0 | 1 | 0 | 0 | 0 |
7 | 4 | 0 | 2 | 0 | 0 | 0 | 0 |
8 | 1 | 0 | 1 | 0 | 0 | 0 | 0 |
9 | 2 | 0 | 0 | 0 | 0 | 3 | 1 |
10 | 1 | 0 | 1 | 1 | 0 | 0 | 0 |
总计 | 4 | 4 | 2 | 3 | 6 | 2 |
Table 3 Distribution statistical table based on equipment number
目标编号 与总计 | 目标 类型 | 武器 类型1 | 武器 类型2 | 武器 类型3 | 武器 类型4 | ||
---|---|---|---|---|---|---|---|
武器1 | 武器2 | 武器3 | 武器4 | 武器5 | 武器6 | ||
1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 |
2 | 3 | 0 | 0 | 0 | 0 | 2 | 0 |
3 | 3 | 0 | 0 | 0 | 1 | 1 | 0 |
4 | 2 | 1 | 0 | 0 | 2 | 0 | 0 |
5 | 4 | 1 | 0 | 0 | 0 | 0 | 1 |
6 | 1 | 1 | 0 | 1 | 0 | 0 | 0 |
7 | 4 | 0 | 2 | 0 | 0 | 0 | 0 |
8 | 1 | 0 | 1 | 0 | 0 | 0 | 0 |
9 | 2 | 0 | 0 | 0 | 0 | 3 | 1 |
10 | 1 | 0 | 1 | 1 | 0 | 0 | 0 |
总计 | 4 | 4 | 2 | 3 | 6 | 2 |
类型 | 来袭目标 | 威胁度 | 飞行速度/(km·h-1) |
---|---|---|---|
1 | 隐身战斗机 | 0.85~0.95 | 800~1000 |
2 | 巡航导弹 | 0.80~0.90 | 800~900 |
3 | 中型无人机 | 0.50~0.60 | 100~250 |
4 | 小型无人机 | 0.40~0.60 | 80~100 |
Table 4 Operation information of the attacking target (Blue)
类型 | 来袭目标 | 威胁度 | 飞行速度/(km·h-1) |
---|---|---|---|
1 | 隐身战斗机 | 0.85~0.95 | 800~1000 |
2 | 巡航导弹 | 0.80~0.90 | 800~900 |
3 | 中型无人机 | 0.50~0.60 | 100~250 |
4 | 小型无人机 | 0.40~0.60 | 80~100 |
类型 | 红方装备 | 成本/ 百万元 | 总要素量 | 通道数 | 最大航路 捷径/km | 可拦截最大 速度/(m·s-1) | 最小发射 距离/km | 打击目标类型 |
---|---|---|---|---|---|---|---|---|
1 | 导弹1 | 5 | 24 | 6 | 6 | 6 | 6 | 巡航导弹、隐身战斗机 |
2 | 导弹2 | 3 | 12 | 6 | 6 | 6 | 6 | 巡航导弹、隐身战斗机、中型无人机 |
3 | 导弹3 | 1 | 96 | 8 | 8 | 8 | 8 | 中型无人机、小型无人机 |
4 | 高功率微波 | 0.3 | 40 | 1 | 1 | 1 | 1 | 小型无人机 |
5 | 高能激光 | 0.1 | 20 | 1 | 1 | 1 | 1 | 小型无人机 |
Table 5 Operation information of interception equipment(Red)
类型 | 红方装备 | 成本/ 百万元 | 总要素量 | 通道数 | 最大航路 捷径/km | 可拦截最大 速度/(m·s-1) | 最小发射 距离/km | 打击目标类型 |
---|---|---|---|---|---|---|---|---|
1 | 导弹1 | 5 | 24 | 6 | 6 | 6 | 6 | 巡航导弹、隐身战斗机 |
2 | 导弹2 | 3 | 12 | 6 | 6 | 6 | 6 | 巡航导弹、隐身战斗机、中型无人机 |
3 | 导弹3 | 1 | 96 | 8 | 8 | 8 | 8 | 中型无人机、小型无人机 |
4 | 高功率微波 | 0.3 | 40 | 1 | 1 | 1 | 1 | 小型无人机 |
5 | 高能激光 | 0.1 | 20 | 1 | 1 | 1 | 1 | 小型无人机 |
装备名称 | 隐身战斗机 | 巡航导弹 | 中型无人机 | 小型无人机 |
---|---|---|---|---|
导弹1 | 0.85 | 0.90 | 0 | 0 |
导弹2 | 0.65 | 0.75 | 0.85 | 0 |
导弹3 | 0 | 0 | 0.70 | 0.65 |
高功率微波 | 0 | 0 | 0 | 0.55 |
高能激光 | 0 | 0 | 0 | 0.45 |
Table 6 Damage probability of interception equipment to target
装备名称 | 隐身战斗机 | 巡航导弹 | 中型无人机 | 小型无人机 |
---|---|---|---|---|
导弹1 | 0.85 | 0.90 | 0 | 0 |
导弹2 | 0.65 | 0.75 | 0.85 | 0 |
导弹3 | 0 | 0 | 0.70 | 0.65 |
高功率微波 | 0 | 0 | 0 | 0.55 |
高能激光 | 0 | 0 | 0 | 0.45 |
对比算法 | 参数 | 数值 |
---|---|---|
基于合作博弈规则算法 | 迭代次数 | 500 |
打击效率与成本权衡比 | 0.6 | |
迭代次数 | 500 | |
启发式NSGA-Ⅱ算法 | 种群规模 | 120 |
交叉算子 | 0.6 | |
变异算子 | 0.05 | |
最大训练次数 | 20000 | |
最大单步回合数 | 10 | |
全连接隐含层维度 | 64 | |
DRLIPPO算法 | 策略更新一次的步数 | 2000 |
Actor网络学习率 | 0.001 | |
Critic网络学习率 | 0.002 | |
选择率 | 0.95 | |
折扣因子 | 0.9 |
Table 7 Hyper-parameter initialization of different algorithms
对比算法 | 参数 | 数值 |
---|---|---|
基于合作博弈规则算法 | 迭代次数 | 500 |
打击效率与成本权衡比 | 0.6 | |
迭代次数 | 500 | |
启发式NSGA-Ⅱ算法 | 种群规模 | 120 |
交叉算子 | 0.6 | |
变异算子 | 0.05 | |
最大训练次数 | 20000 | |
最大单步回合数 | 10 | |
全连接隐含层维度 | 64 | |
DRLIPPO算法 | 策略更新一次的步数 | 2000 |
Actor网络学习率 | 0.001 | |
Critic网络学习率 | 0.002 | |
选择率 | 0.95 | |
折扣因子 | 0.9 |
目标数量 | 火力单元数量 | 算法 | 响应时间/s | 打击效能 | 作战成本/百万元 | 综合计算指标 |
---|---|---|---|---|---|---|
Ruled-based | 0.0068 | 0.7971 | 19.1 | 9.403986 | ||
10 | NSGA-Ⅱ | 0.0235 | 0.7434 | 18.8 | 2.578329 | |
IPPO | 0.0318 | 0.7412 | 18.4 | 1.941029 | ||
Ruled-based | 0.0067 | 0.8551 | 29.7 | 8.334818 | ||
10(小规模) | 15 | NSGA-Ⅱ | 0.0234 | 0.8053 | 24.4 | 2.735662 |
IPPO | 0.0314 | 0.8128 | 23.9 | 2.100713 | ||
Ruled-based | 0.0069 | 0.884 | 33.7 | 7.798923 | ||
20 | NSGA-Ⅱ | 0.0237 | 0.8313 | 24.5 | 2.937005 | |
IPPO | 0.0317 | 0.8296 | 25.6 | 2.097157 | ||
Ruled-based | 0.0071 | 0.7103 | 90.96 | 6.900191 | ||
50 | NSGA-Ⅱ | 0.0359 | 0.7012 | 88.35 | 1.386976 | |
IPPO | 0.0083 | 0.7091 | 80.03 | 6.697376 | ||
Ruled-based | 0.0073 | 0.8263 | 138.32 | 6.745441 | ||
50(中规模) | 75 | NSGA-Ⅱ | 0.0364 | 0.8015 | 129.89 | 1.397355 |
IPPO | 0.0084 | 0.828 | 120.33 | 6.752391 | ||
Ruled-based | 0.0076 | 0.8559 | 158.24 | 6.209361 | ||
100 | NSGA-Ⅱ | 0.0359 | 0.8213 | 142.38 | 1.401884 | |
IPPO | 0.0087 | 0.8521 | 122.13 | 6.996852 | ||
Ruled-based | 0.0088 | 0.6956 | 540.12 | 6.014687 | ||
300 | NSGA-Ⅱ | 0.0389 | 0.6045 | 525.39 | 1.215602 | |
IPPO | 0.0037 | 0.6639 | 504.87 | 14.606554 | ||
Ruled-based | 0.0089 | 0.8111 | 717.36 | 5.673290 | ||
300(大规模) | 450 | NSGA-Ⅱ | 0.0383 | 0.7432 | 698.45 | 1.240679 |
IPPO | 0.0039 | 0.8018 | 643.21 | 14.273695 | ||
Ruled-based | 0.0091 | 0.8489 | 751.34 | 5.589298 | ||
600 | NSGA-Ⅱ | 0.0381 | 0.7298 | 734.33 | 1.174265 | |
IPPO | 0.0036 | 0.8327 | 651.23 | 15.989331 |
Table 8 Distribution statistical table based on equipment number
目标数量 | 火力单元数量 | 算法 | 响应时间/s | 打击效能 | 作战成本/百万元 | 综合计算指标 |
---|---|---|---|---|---|---|
Ruled-based | 0.0068 | 0.7971 | 19.1 | 9.403986 | ||
10 | NSGA-Ⅱ | 0.0235 | 0.7434 | 18.8 | 2.578329 | |
IPPO | 0.0318 | 0.7412 | 18.4 | 1.941029 | ||
Ruled-based | 0.0067 | 0.8551 | 29.7 | 8.334818 | ||
10(小规模) | 15 | NSGA-Ⅱ | 0.0234 | 0.8053 | 24.4 | 2.735662 |
IPPO | 0.0314 | 0.8128 | 23.9 | 2.100713 | ||
Ruled-based | 0.0069 | 0.884 | 33.7 | 7.798923 | ||
20 | NSGA-Ⅱ | 0.0237 | 0.8313 | 24.5 | 2.937005 | |
IPPO | 0.0317 | 0.8296 | 25.6 | 2.097157 | ||
Ruled-based | 0.0071 | 0.7103 | 90.96 | 6.900191 | ||
50 | NSGA-Ⅱ | 0.0359 | 0.7012 | 88.35 | 1.386976 | |
IPPO | 0.0083 | 0.7091 | 80.03 | 6.697376 | ||
Ruled-based | 0.0073 | 0.8263 | 138.32 | 6.745441 | ||
50(中规模) | 75 | NSGA-Ⅱ | 0.0364 | 0.8015 | 129.89 | 1.397355 |
IPPO | 0.0084 | 0.828 | 120.33 | 6.752391 | ||
Ruled-based | 0.0076 | 0.8559 | 158.24 | 6.209361 | ||
100 | NSGA-Ⅱ | 0.0359 | 0.8213 | 142.38 | 1.401884 | |
IPPO | 0.0087 | 0.8521 | 122.13 | 6.996852 | ||
Ruled-based | 0.0088 | 0.6956 | 540.12 | 6.014687 | ||
300 | NSGA-Ⅱ | 0.0389 | 0.6045 | 525.39 | 1.215602 | |
IPPO | 0.0037 | 0.6639 | 504.87 | 14.606554 | ||
Ruled-based | 0.0089 | 0.8111 | 717.36 | 5.673290 | ||
300(大规模) | 450 | NSGA-Ⅱ | 0.0383 | 0.7432 | 698.45 | 1.240679 |
IPPO | 0.0039 | 0.8018 | 643.21 | 14.273695 | ||
Ruled-based | 0.0091 | 0.8489 | 751.34 | 5.589298 | ||
600 | NSGA-Ⅱ | 0.0381 | 0.7298 | 734.33 | 1.174265 | |
IPPO | 0.0036 | 0.8327 | 651.23 | 15.989331 |
[1] |
万斯来, 王国新, 明振军, 等. 基于知识推理的杀伤网智能设计方法[J]. 兵工学报, 2024, 45(4):1025-1037.
doi: 10.12382/bgxb.2022.1077 |
doi: 10.12382/bgxb.2022.1077 |
|
[2] |
唐毓燕, 李芳芳, 张振宇, 等. 美国弹道导弹防御系统中的杀伤链与杀伤网解析[J]. 现代防御技术, 2023, 51(1): 1-10.
doi: 10.3969/j.issn.1009-086x.2023.01.001 |
|
|
[3] |
刘麦笛, 夏博远, 杨志伟, 等. 考虑集群协同特性的马赛克战体系能力需求满足度评估方法[J]. 系统工程理论与实践, 2023, 43(8):2447-2466.
doi: 10.12011/SETP2022-0477 |
|
|
[4] |
李强, 王飞跃. 马赛克战概念分析和未来陆战场网信体系及其智能对抗研究[J]. 指挥与控制学报, 2020, 6(2): 87-93.
|
|
|
[5] |
陈登, 陈楚湘, 周春华. 基于OODA环的杀伤网节点重要性评估[J]. 兵工学报, 2024, 45(2):363-372.
doi: 10.12382/bgxb.2022.0623 |
doi: 10.12382/bgxb.2022.0623 |
|
[6] |
张传良, 丁浩淼. 从杀伤链到杀伤网—全域作战视角下的杀伤链战略[J]. 军事文摘, 2021(3): 7-12.
|
|
|
[7] |
doi: 10.3390/ijms161025338 pmid: 26512650 |
[8] |
|
[9] |
|
[10] |
张进, 郭浩, 陈统. 基于可适应匈牙利算法的武器-目标分配问题[J]. 兵工学报, 2021, 42(6): 1339-1344.
doi: 10.3969/j.issn.1000-1093.2021.06.025 |
doi: 10.3969/j.issn.1000-1093.2021.06.025 |
|
[11] |
张先剑. 空陆攻防博弈的动态武器目标分配[J]. 国防科技大学学报, 2019, 41(2): 185-190.
|
|
|
[12] |
|
[13] |
|
[14] |
|
[15] |
|
[16] |
|
[17] |
|
[18] |
|
[19] |
李璐璐, 朱睿杰, 隋璐瑶, 等. 智能集群系统的强化学习方法综述[J]. 计算机学报, 2023, 46(12):2573-2596.
|
|
|
[20] |
|
[21] |
朱建文, 赵长见, 李小平, 等. 基于强化学习的集群多目标分配与智能决策方法[J]. 兵工学报, 2021, 42(9): 2040-2048.
|
doi: 10.3969/j.issn.1000-1093.2021.09.025 |
|
[22] |
|
[23] |
肖友刚, 金升成, 毛晓, 等. 基于深度强化学习的舰船导弹目标分配方法[J]. 控制理论与应用, 2024, 41(6):990-998.
|
|
|
[24] |
马悦, 吴琳, 许霄. 基于多智能体强化学习的协同目标分配[J]. 系统工程与电子技术, 2023, 45(9):2793-2801.
doi: 10.12305/j.issn.1001-506X.2023.09.18 |
doi: 10.12305/j.issn.1001-506X.2023.09.18 |
|
[25] |
|
[26] |
|
[27] |
|
[28] |
|
[29] |
|
[30] |
曹占广, 陶帅, 胡晓峰, 等. 国外兵棋推演及系统研究进展[J]. 系统仿真学报, 2021, 33(9): 2059-2065.
doi: 10.16182/j.issn1004731x.joss.20-0726 |
doi: 10.16182/j.issn1004731x.joss.20-0726 |
|
[31] |
金林. 弹道导弹防御系统综述[J]. 现代雷达, 2012, 34(12): 1-7.
|
|
|
[32] |
|
[1] | WAN Zhangbo, HU Jiangang, LI Junjie, CHEN Li, MAO Yukun, YE Mengya. Effectiveness Evaluation of Land-based Intelligent Unmanned Combat Systems Based on Graph Convolutional Networks [J]. Acta Armamentarii, 2024, 45(S1): 271-277. |
[2] | WANG Laihe, CUI Xuejing. On the Construction of Marine Unmanned Test and Training System [J]. Acta Armamentarii, 2024, 45(10): 3445-3461. |
[3] | WAN Silai, WANG Guoxin, MING Zhenjun, LI Chuanhao, YAN Yan, DING Wei, YUAN Ke, WANG Yuqian. Modeling and Optimization Method of Kill Chains Based on AGE-MOEA [J]. Acta Armamentarii, 2024, 45(8): 2617-2628. |
[4] | YU Jintao, XIAO Bing, CUI Yuzhu, QI Dong, YAN Tao. Mission Support Capability Assessment of Early-warning Combat System-of-systems Based on Temporal Network Simulation and Contribution Rate [J]. Acta Armamentarii, 2024, 45(4): 1237-1251. |
[5] | WAN Silai, WANG Guoxin, MING Zhenjun, YAN Yan, HAO Jia. Knowledge Reasoning-based Intelligent Design Method of Kill-web [J]. Acta Armamentarii, 2024, 45(4): 1025-1037. |
[6] | CHEN Deng, CHEN Chuxiang, ZHOU Chunhua. Importance Evaluation of Kill Network Nodes Based on OODA Loop [J]. Acta Armamentarii, 2024, 45(2): 363-372. |
[7] | LIU Haobang, SHI Xianming, ZHAO Mei, ZHANG Jianjun. Bayesian Estimation of Surface-to-Air Missile Hit Probability Based on Normal-inverse Wishart Distribution [J]. Acta Armamentarii, 2024, 45(1): 339-348. |
[8] | YU Jintao, XIAO Bing, CUI Yuzhu. Capability Evaluation of Air Defense and Anti-missile Early Warning System-of-systems Based on Node Importance and Improved Effectiveness Loop [J]. Acta Armamentarii, 2024, 45(1): 328-338. |
[9] | WANG Guan, WEI Ning, GUO Yu. Departure and Landing Technologies of Shipborne Antisubmarine Helicopter Based on the U.S. Army Amphibious Assault Ship [J]. Acta Armamentarii, 2023, 44(S2): 199-208. |
[10] | LIU Haobang, SHI Xianming, HAO Bing, JIANG Yongchao. Estimation of Ammunition Hit Probability in Multiple-Batch Tests Using Multinomial Distribution [J]. Acta Armamentarii, 2023, 44(10): 3156-3164. |
[11] | LIU Zunfei, ZOU Bo, CHEN Xulin, ZHANG Wenjuan, YE Shuangping, PAN Jiangli. Architecture Modeling and Effectiveness Evaluation of Equipment System under Manned and Unmanned Joint Operation Mode [J]. Acta Armamentarii, 2022, 43(S1): 155-161. |
[12] | CHEN Lixin, XU Zhongxiang, WANG Congrong, HUANG Desuo, CHEN Zhining. Intercomparison-oriented Evaluation of Equipment's Contribution Rate to Armament System-of-Systems Construction [J]. Acta Armamentarii, 2022, 43(5): 1208-1214. |
[13] | ZHANG Tao, XIANG Qi, ZHENG Wanwen, SUN Yuxiang, ZHOU Xianzhong. Application of Path Planning Based on Improved A* Algorithm in War Gaming of Naval Warfare [J]. Acta Armamentarii, 2022, 43(4): 960-968. |
[14] | SHEN Binzhen, MIAO Jianming, LI Xiaofei, JIA Guangwei. Evaluation Model of Land Force Weapon Equipment System Combat Capability Based on Improved SEM [J]. Acta Armamentarii, 2021, 42(11): 2503-2512. |
[15] | NIE Junfeng, CHEN Xingjun, SHI Hongquan. Dynamic Super-network Model of Task-oriented Naval Fleet “Cloud Combat” System [J]. Acta Armamentarii, 2021, 42(11): 2513-2521. |
Viewed | ||||||
Full text |
|
|||||
Abstract |
|
|||||