基于模糊偏好的海军多兵种合同作战资源规划技术_施展

第6卷 第5期 2015年10月指挥信息系统与技术
Command Information System and TechnologyVol.6 No.5
Oct.2015
·实践与应用·
doi:10.15908/j
.cnki.cist.2015.05.013基于模糊偏好的海军多兵种合同作战资源规划技术
施 展1 赵宗贵1 许 腾2
(1 中国电子科技集团公司第二十八研究所 南京210007
)(2 海军指挥学院2系 南京210016
)摘 要:在未来海军一体化联合作战的背景下,海战场作战效能越来越依赖于作战资源的整体效能。根据任务对资源的能力需求和作战资源的能力匹配以及资源约束条件,建立合同作战资源的多目标规划
模型。基于模糊逻辑理论量化决策者的决策偏好信息,提出了一种基于模糊偏好的多目标量子行为粒子优化(FPMOQPSO)算法。仿真结果表明,基于FPMOQPSO算法的作战资源规划方案更具针对性,
能够减轻决策者的决策负担。关键词:作战资源规划;多兵种作战;模糊逻辑;模糊偏好;多目标优化
中图分类号:TP391;V279  文献标识码:A  文章编号:1674-909X(2015)05-0068-
06Operation Resource Planning Technology for Navy Cooperative Battle withMulti-arms Based on Fuzzy 
PreferenceShi Zhan1 Zhao Zonggui 1 Xu Teng
2(1The 28th Research Institute of China Electronics Technology Group Corporation,Nanjing 
210007,China)(2The 2nd Department,Naval Comm
and College,Nanjing 
藏文网210016,China)Abstract:Under the background of integrated joint operations for navy in the future,operationalefficiency increasingly depends on the overall efficiency of the combat resources.A multi-objec-tive planning model is established for operation resource planning according to capability demandsof each basic task,capability match of combat resources and resource restriction conditions.Fuzz-y 
preference-based multi-objective quantum-behaved particle swarm optimization(FPMOQPSO)algorithm is proposed based on the decision preference information for commander by fuzzy logictheory.Simulation results indicate that 
the schemes of operation resource planning based on theFPMOQPSO algorithm can ensure the pertinence,thus alleviating the decision burden for deci-sion-m
akers.Key words:operation resource planning;battle with multi-arms;fuzzy logic;fuzzy preference;multi-objective op
timization  收稿日期:2015-03-
170 引 言
信息化战争中海军作战任务复杂多变,作战资源数量庞大、功能各异且能力多样,需合理进行作战资源或资源组合选择以高效完成作战任务,提高作战资源利用率。国外关于作战资源规划技术研究主
要体现在作战计划系统及任务管理系统研制中,以美国为代表的军事强国大力发展联合作战计划与执
行系统(JOPES
)[1]
。作战任务分配和作战资源优化配置涉及作战资源或兵力规划,通常属于非确定性多项式完备(NP-Complete)问题。资源与任务的匹配需要多维变量进行测度,任务需要不同资源或异
忏悔录奥古斯丁构平台协同处理,在资源个体能够同时处理多任务
情况下,调度问题复杂性大为增加。Levchuk[2]
出了多维动态列表规划(MDLS)算法求解该类复杂问题。
目前,国内作战资源规划研究,大多以抢滩登陆
作战任务为例进行分析[
3-
9]。国防科技大学在这方面已取得了一些研究成果。例如,鲁音隆[6]
采用改
进的MDLS算法求解作战平台资源规划方案;
陈洪辉[7]基于改进的平台任务双向选择方法,给出了一
种改进的多优先级动态列表规划(MPLDS)
算法求解作战资源分配方案;包卫东[8]提出了一种MDLS
和遗传算法相结合的求解方法;黄广连
[9]
提出了一
种改进的MPLDS算法求解模型。由于MDLS和MPLDS算法采用的局部搜索策略均基于贪婪策略,尤其MDLS算法存在局部搜索和优先权函数的合理性问题,无法保证任务分配的平台结果是最优解,甚至无法保证得到的是次优解。因此,这类算法在解决作战资源调度问题时存在不足。
未来海军一体化联合作战,海战场作战效能越来越依赖于作战资源的整体效能。海军作战资源规划是约束条件众多且耦合紧密的复杂多目标优化决策问题,
需要综合利用多目标优化理论和智能计算等先进技术进行求解,以提高作战决策水平和指挥控制能力。
1 作战资源多目标规划模型
作战资源规划指在有限作战资源情况下,优化组合可用的作战资源,以期完成任务后整体作战效能最大化,同时作战资源战损最小化。重点考虑规划作战资源的性能指标以及规划过程中需满足的约束条件。
1.1 规划约束条件1.1.1 任务-资源分配变量
设xmi为单位资源Rm(1≤m≤K)和基本任务Ti(1≤i≤N)间分配关系。xmi=
0表明Rm不执行Ti;xmi=1则表明Rm有且仅有2种情况分配去执行Ti:1)Rm处于空闲状态;2)Rm在执行完Tj后分配去执行Ti。同时每种单位资源执行任务数不能超过其最大战术负载,即:
∑N
i=1
xmi≤Lm
(1
)其中,Lm为Rm的最大战术负载数。
1.1.2 作战资源效能
作战资源效能约束需考虑单个资源性能约束,以及资源组合后的效能约束。规划作战资源时,只有作战资源具有某能力属性时,才能给它分配有该能力需求的任务,即作战资源能力属性约束。当单个作战资源无法完成任务时,需通过组合单个作战资源形成复合资源共同完成任务。成功执行Ti的条件是分配执行该基本任务的所有单位资源集的效能≥Ti的能力需求Tc,i,
即:∑K
m=1xmi
c,l
≥Tc,i l=1,2,…,L(2
其中,Rm
,l为Rm第l类型的效能值;L为单位资源的
能力类型数。1.1.3 任务完成系数
无论如何分配作战资源,最终目的都是完成既
定任务。假设完成Ti的系数为Dhsi,
则分配给该基本任务的作战资源能够成功完成任务的概率需≥
Dhs
i,救灾捐赠管理办法
即:1-∏K
m=1
(1-pmixmi)≥D
hs
i(3
)其中,pmi为Rm能够完成Ti的概率。1.1.4 任务完成时间
由于任务间顺序关系,故开始执行Ti需在其所有前导任务pr(Ti)执行完毕后。Rm在执行完Ti后分配执行Tj时,由于任务执行需执行该任务的所有作战资源均达到任务执行位置,
显然这些作战资源不可能同时到达,故先到达的作战资源需等待。因此,Rm开始执行Tj的时间tj不小于Rm到达Tj区域的时间,即存在时间次序的任务执行时间满足约束如下:
tj≥ti+TT,i+xmixmjDis(Ti,Tj)
/vR,m(4)其中,ti为开始执行Ti的时间;Dis(Ti,Tj)
为任务Ti和Tj区域之间的距离;
vR,m为Rm的移动速度;TT,i为执行Ti的自身时间。1.2 规划性能指标
设X为基本任务与单位资源间分配矩阵,在作战资源规划过程考虑以下2个性能指标:
)任务完成后作战效能在满足资源规划约束情况下,使任务完成后的作战效能最大,即
max{Eff(X)}=max{∑N
i=1
Ef
f(Ti)}=    max{∑N
i=1
(1-∏K
m=1
1-pmixmi))Tv,i}(5
)9
6第6卷 第5期施 展,等:基于模糊偏好的海军多兵种合同作战资源规划技术
其中,Eff(Ti)为完成Ti后获取的作战效能;Tv,i为Ti的任务重要性或战略价值。
)作战资源调用成本在满足资源规划约束情况下,
为了完成作战任务,分配给所有基本任务的单位资源或复合资源的调用成本最少,
即min{Cost(X)}=min{∑N
i=1
Co
st(Gr(Ti))}=min{∑K
m=1∑N
i=1
xmi
cm}(6
)其中,Gr(Ti)为分配给Ti的单位资源组合;cm为调用Rm的成本。1.3 模 型
以任务完成后的作战效能和作战资源的调用成本为性能指标,建立面向任务的作战资源多目标规划模型如下:max{Eff(X)}=  max{∑N
i=1(1-∏K
m=1(1-pmixmi))Tv,i}min{Cost(X)}=min{∑K
m=1∑N
i=1
xmicm烅
烆} (7
)  约束条件如下:
1)任务-资源分配变量约束:∑N
i=1
xmi≤Lm;
2)资源效能约束:∑K
m=1
ximRm
c,l
≥Ti
c,l
3)任务完成系数约束:1-
m=1
(1-pmixmi)
≥Dhs
i;
4)任务完成时间约束:te
j≥tj≥max{ti+TT,i+xmixmjDis(Ti,Tj)/vR,m,ts
j}
,i≠j,i,j=1,2,…,N。其中,tsj
和tej
分别为最早起始时间和最晚结束时间。
2 基于决策偏好信息的模型求解技术
2.1 Pareto支配及局限性
  多目标优化问题中优化目标间往往存在相互制约或相互矛盾的关系,任何一个目标性能增加可能导致其他目标性能降低。因此,多目标优化问题通常不存在能使每个目标同时最优的最优解,需对优化目标进行协调和折中处理。多目标优化问题通常具有多个Pareto最优解(基于Pareto支配关系评价的非支配解或非劣解),多目标优化问题的最优解仅是Pareto最优解中在某一性能指标或决策偏好情
况下的满意解,因此多目标优化问题中类似于单目标优化的最优解不存在。
从Pareto支配定义[10]
可知:1)只有当解在所
有目标上均不劣于另外一个解,且至少在一个目标上优于它时,才能认为该解Pareto支配另外一个解,因此,Pareto支配是一种较强的排序关系;2)Pareto支配概念视所有目标具有相同重要性,而未引入决策者的任何偏好信息。算法运行结束后,
决策者需从大量分布范围较广且重要性相同的非支配解中进行决策。
为了克服Pareto支配的局限性和增强算法对解空间搜索的针对性,
引入决策者对目标性能的偏好信息,作为指导算法快速聚向目标空间,算法运行结束后,决策者仅需在关注区域择优选择最终解,从而减轻决策者的决策负担。
2.2 基于模糊偏好的多目标量子行为粒子优化
算法
  为了克服P
areto支配概念的局限性,文献[10]通过建立模糊推理系统,构造一种基于模糊逻辑的“强度优于”关系替代Pareto支配关系比较解之间的优劣,
使得算法在运行结束后仅得到期望区域内的解,便于决策者进行分析与决策。
粒子优化(QPSO)算法以具有量子行为特性的粒子遍历搜索整个可行解空间,利用粒子特有的记忆功能使其动态跟踪当前搜索情况,并自适应调整搜索策略。在文献[11]算法基础上,通过引入混沌变异算子提高在寻优过程中量子粒子的多样性,避免算法过早收敛,同时增强了算法的局部精细搜索能力。领导粒子选择机制、外部存储器更新策略和混沌变异算子参见文献[11]。本文基于模糊逻辑的“强度优于”关系和决策偏好信息,提出了基于模糊偏好的多目标量子行为粒子优化(FPMO-QPSO)算法。2.2.1 适应度评价
当算法对进化体进行选择操作时,需要对每个个体进行适应度评价,以衡量个体的优劣程度。FPMOQPSO适应度评价过程如下:
1)设当前体Pp
op
中有N个个体,计算每个个体xk∈Ppop
(k=1,2,…,N)的正强度值S+(xk)
[10];2)计算每个个体xk∈Ppop
的拥挤距离dk
[11];3)记Smin=
min
k=1,2,…,N
(S+(xk)),dmax=
maxk=1,2,…,N
(dk),对每个个体xk∈P
pop导丝男士
,依据下式计算0
7指挥信息系统与技术2015年10月 
适应度:
f(xk)=(S+(xk)-Smin+1)(dk/dmax)2(8)其中,(S+(xk)-Smin+1)项将个体xk的强度值S+(xk)调整为大于1的数;(dk/dmax)2项利用密度信息调整个体适应度,以保持体的多样性,防止产生过多相似个体导致算法早熟。如果个体xk的拥挤距离dk较小,即其周围密度较大,则对其适应度施以较大惩罚(使之降低较大幅度)。个体xk适应度越大,表明xk性能越优。
2.2.2 混沌变异算子
尽管QPSO算法的全局寻优能力很强,但是在求解多目标优化问题时仍然需要保证体的多样性,而变异操作能够有效增强粒子的多样性。无规律的随机变异方式寻优过程可能导致算法出现退化现象。混沌运动具有遍历性、随机性和规律性等特点,能够在一定范围内按其自身规律无重复遍历所有状态,更适合大范围可行解空间的搜索。因此采用混沌变异可提高搜索解的遍历性和随机性,从而提高粒子的多样性[11]。
2.2.3 算法实施步骤
根据FPMOQPSO算法原理,实施步骤如下:
1)初始化。设置FPMOQPSO算法基本参数,令当前迭代次数k=1,随机初始化规模为N的
量子粒子Qk,并创建一个空的外部存储器Ak= 。基于模糊偏好准则将决策者给出的性能指标间相对重要程度量化为各性能指标的重要性因子,设置最大迭代次数。
2)适应度评价。计算Qk中每个粒子的目标向量,并计算每个粒子的强度值S+和拥挤距离,根据适应度评价准则对粒子进行适应度评价,据此初始化外部存储器粒子。
3)粒子更新。根据领导粒子选择机制为每个粒子选择各自的领导粒子,并根据QPSO算法更新
粒子,判断是否满足变异条件。若满足则进行混沌变异操作;否则执行4)。
4)个体最好粒子更新。根据模糊偏好评价新粒子的优劣,并更新个体最好粒子。如果新粒子支配当前个体最好粒子,则将新粒子作为其个体最好粒子;如果两者互不支配,则随机选择其中之一作为个体最好粒子;否则保留原来的个体最好粒子。
5)外部存储器更新和裁剪。根据模糊偏好和新粒子更新外部存储器中最优粒子。如果新粒子支配外部存储器中最优粒子,则删除所有被支配的最优粒子并将该粒子存入外部存储器;如果两者互不支配,则将该粒子存入外部存储器;否则舍弃该粒子。当外部存储器中最优粒子数超过最大容量M时,采用拥挤距离排序的多样性维护策略更新外部存储器中最优粒子,直至最优粒子数不超过最大容量值。
6)决策交互。如果迭代次数满足一定条件,则与决策者进行交互;否则,直接进入7)。交互时算法显示当前搜索到的解信息,并允许决策者改变偏好。
7)终止准则判断。令k=k+1,若k达到最大迭代次数,则输出外部存储器中所有强度非支配粒子作为算法所求的满意解集,否则转至3)。
3 仿真示例
假定某国水面舰艇编队企图侵占我领海,根据上级要求,委派我方某海上编队协同打击敌水面舰艇编队,以威慑敌方侵占我领海的企图。我方作战兵力资源由4艘驱护舰、2艘潜艇、6架海军攻击机(2架1批)和1架反潜直升机构成。敌方水面舰艇编队由2艘驱逐舰、4架舰载机和2艘潜艇构成。
参考文献[7-9],将上述作战任务分解为6个基本任务,海军多兵种合同打击水面舰艇编队使命任务分解及作战资源能力需求如表1所示。
表1 海军多兵种合同打击水面舰艇编队使命任务分解及作战资源能力需求
任务标识
完成任务所需作战资源能力需求
探测
效能
反舰
效能
防空
效能
反潜
效能
电子战
效能
水声对抗
效能
任务执行
时间/h
打击目标
地理位置/km
任务
重要性
打击驱逐舰T110 10 0 0 10 0[0.4,1.0](0.10,0.30)高打击驱逐舰T220 15 0 0 12 0[0.5,1.2](0.13,0.28)中拦截舰载机T316 0 10 0 6 0[1.6,2.5](0.16,0.35)高拦截舰载机T418 0 20 0 8 0[1.5,2.8](0.20,0.42)高突袭敌潜艇T520 0 0 18 0 15[0.0,0.5](0.22,0.39)中突袭敌潜艇T615 0 0 12 0 10[0.8,1.6](0.19,0.32)高注:各属性值根据作战想定中兵
力资源武器装备确定。2架舰载机编为1批,任务重要性为根据敌不同兵力的性能和位置对我方造成威胁程度,要求我方完成对应任务的优先级。1
7第6卷 第5期施 展,等:基于模糊偏好的海军多兵种合同作战资源规划技术
  采用文献[
11]没有引入决策偏好信息的多目标量子行为粒子优化(MOQPSO_CD)算法和本文提出的FPMOQPSO算法求解打击敌水面舰艇编队任务的作战兵力资源规划方案,并对2种算法计算结果和对作战资源规划方案的影响进行对比分析。
1)MOQPSO_CD算法
基于MOQPSO_CD算法得到不同方案资源-任务分配对比和性能指标值对比分别如表2和表3所示。
表2 基于MOQ
PSO_CD算法不同方案资源-任务分配对比方案T1T2T3T4T5T6
1 R2R2,R5R1,R3,R7R5,R9R4,R8R7,R8,R102 R2R2,R3,R5R1,R3,R7R5,R9R4,R8R7,R8,R103 R2R2,R4,R5R1,R3,R7R5,R9R4,R8R7,R8,R104 R2R2,R5R1,R3R5,R9R4,R8R7,R8,R105 R2R3,R5R1,R3,R7R5,R9R4,R8R7,R8,R106 R
2R5
R1,R3R5,R9R4,R8R7,R8,R107 R2R2,R3,R4,R5
R1,R3,R7
R5,R9R4,R8R7,R8,R10
注:R1~R3分别为我方编批后的海军攻击机,R4~R5分别为我方潜艇,R6为我方反潜直升机,R7~R10分别为我方驱护舰。
表3 基于MOQ
PSO_CD算法不同方案性能指标值对比方案作战效能
的倒数资源调用成本
/百万元
单位代价上
作战效能1 0.294 10.27 0.3312 0.291 11.03 0.3123 0.290 11.15 0.3094 0.302 9.46 0.3505 0.298 10.22 0.3296 0.321 8.65 0.3617 
0.289 
11.91 
0.291
  以单位代价上作战效能最大为选优准则确定的
基于MOQPSO_CD算法满意规划方案甘特图如图1所示
图1 基于MOQ
PSO_CD算法的满意规划方案甘特图2)FPMOQPSO算法
基于FPMOQPSO算法得到不同方案资源-任务分配对比和性能指标值对比分别如表4和表5所示。
表4 基于FPMOQ
PSO算法不同方案资源-任务分配对比方案T1T2T3T4T5T61 
R10
R2,R3
R8,R10
R3,R9
R5
R4,R5
拉萨新增225例本土无症状
2 R8,R10R2,R3R8,R10
R3,R9
R2,R5
R4,R53 R8,R10R2,R3R8,R10R3,R9R5
R4,R54 R8,R10
R2,R3
R8,R10R1,R3,R9R2,R5
R4,R5
表5 基于FPMOQ
PSO算法不同方案的性能指标值对比方案作战效能
的倒数资源调用成本
/百万元
单位代价上
作战效能1 0.321 7.61 0.4092 0.285 9.18 0.3823 0.301 8.37 0.3974 
遗留问题0.280 
10.10 
0.353
  以单位代价上作战效能最大为选优准则确定的
基于FPMOQPSO算法的满意规划方案甘特图如图2所示
图2 基于FPMOQ
PSO算法的满意规划方案甘特图通过以上对比分析,2种算法所求规划方案在2个性能指标上各有优劣。与没有引入决策偏好的MOQPSO_CD算法的规划方案相比,引入决策偏好信息后的FPMOQPSO算法所求规划方案较少,解更有针对性,同时减轻了决策者负担。
4 结束语
通过分析作战资源规划过程中性能指标函数和主要约束条件,建立了面向任务的作战资源多目标规划模型,提出了一种FPMOQPSO算法求解模
型。仿真结果表明,引入决策偏好信息后的算法,在解集分布上更具针对性和聚焦性,
减轻了决策者负担,为作战指挥员高效和快速决策提供了理论基础
和技术支撑。
7指挥信息系统与技术2015年10月 

本文发布于:2024-09-23 05:31:57,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/275679.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:资源   作战   任务   算法   粒子   规划   目标   方案
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议