基于正向运动学的机械臂深度确定性策略梯度训练方法



1.本发明涉及人工智能与机器人领域的强化学习算法,尤其涉及一种基于正向运动学的机械臂深度确定性策略梯度训练方法。


背景技术:



2.强化学习是机器学习领域的一种范式,近年来引起了学者的很大研究兴趣。然而,强化学习在现实世界中的应用非常稀缺且具有挑战性,机器人领域使研究人员能够相对容易的定义训练环境,因此强化学习在该领域上获得了很多成功的应用。
3.强化学习又分为基于模型的强化学习和无模型的强化学习。基于模型的强化学习是指智能体已知环境模型,然后智能体与这个环境模型进行交互并学习策略;无模型的强化学习是指智能体事先不知道环境模型仅根据与环境交互来直接学习策略。无模型强化学习虽然不用已知环境模型,但需要从环境中采样(sample)数据用以更新网络,此过程需要消耗大量时间和资源导致了样本效率很低;而基于模型的强化学习,有效的解决了样本效率低下的问题,但面临着当环境模型很复杂的时候,所建立的模型不准确,导致训练完成后的策略无法适用于真实环境中。
4.在现有的结合深度确定性策略梯度方法的一些技术,他们都是利用智能体与环境交互所产生的数据训练actor与critic模块。对于cn202010202667.5、cn202010646146.9和cn201910049650.8都是利用无模型的ddpg算法训练智能体完成机械臂控制任务,智能体需要花费大量的时间和资源去探索,这就导致了样本效率低下,训练好一个网络模型需要经过很长的时间。


技术实现要素:



5.发明目的:本发明旨在提供一种减少智能体与环境交互的次数并提高样本效率的基于正向运动学的机械臂深度确定性策略梯度训练方法。
6.技术方案:本发明所述的基于正向运动学的机械臂深度确定性策略梯度训练方法,包括以下步骤:
7.s1.搭建仿真环境中的机械臂训练环境,确定每回合训练步数t和训练回合数m;
8.s2.根据机械臂类型建立机械臂正向运动学模型:
9.输入机械臂j个关节角度为(θ1,θ2…
θj)得到末端执行器位姿p=f(θ1,θ2…
θj);
10.s3.建立actor模块和critic模块;建立一个经验池,每次智能体与环境交互产生的经验称为一个transition(s,a,r,s

)并将此次transition存入经验池,其中,s为当前状态,a为当前动作由机械臂j个关节角度表示a=(θ1,θ2…
θj),s

为下一状态,r为观察s

后根据奖惩函数r得到的奖励值;
11.s4.达到训练步数t后从经验池中抽取经验更新actor和critic模块,进行动态规划:
12.从经验池中抽取未完成任务的transition0(s0,a0,r0,s
′0),并向transition0中的
a0添加n次噪声,生成n个不同的动作a1,a2...an,此后将a0,a1,a2...an分别输入f(θ1,θ2…
θj),得到transitionk(sk,ak,rk,s
′k),k=0,1,2...n,将最大奖励值rk所在的transitionk记为transition
max
(s
max
,a
max
,r
max
,s

max
),并将transition
max
替换经验池中transitiono,之后将transition
max
中的s

max
作为动态规划中一回合的初始状态输入actor网络,将actor网络输出的动作再输入f(θ1,θ2…
θj),得到此动作之后的transition,并存储在经验池中;重复此过程直至达到每回合训练步数t,从经验池中抽取经验再次更新actor和critic模块;
13.s5.重复步骤s4,直到达到训练回合数m。
14.进一步地,所述步骤s1包括以下步骤:
15.s11.使用开源仿真平台搭建实验环境,确定物理引擎,将用于完成任务的机械臂导入此仿真平台搭建的实验环境中;
16.s12.设定机械臂的控制任务;根据机械臂的控制任务设计奖惩函数r;每回合训练步数t是指每回合智能体与环境交互的次数;训练回合数m和训练步数t由实际训练效果决定;
17.s13.定义机械臂控制任务的动作空间和状态空间;动作空间a中动作a为机械臂的j个关节角度记为a=(θ1,θ2…
θj);关节的角度范围l=1,2...j,为关节最小角度,为关节最大角度;状态空间s中状态s由末端执行器位姿p(x,y,z,α,β,γ)和步骤s12所设定的机械臂控制任务决定,记为s=(p,sd),其中(x,y,z)为末端执行器位置,(α,β,γ)为末端执行器姿态,sd为状态s中不包括末端执行器位姿p的部分。
18.进一步地,所述步骤s3包括以下步骤:
19.s31.建立智能体的actor模块,将状态s输入actor模块,actor模块输出智能体的下一步动作a;
20.s32.建立智能体的critic模块,将状态s和动作a作为critic模块的输入,critic模块输出一个评价该次动作a的值q(s,a);
21.s33.为了使训练稳定,当前actor网络和critic网络更新后,目标actor网络和critic网络才会开始更新。
22.进一步地,所述步骤s4包括以下步骤:
23.s41.智能体与环境交互达到每回合训练步数t后,从经验池中抽取经验更新actor与critic模块后,进行动态规划;
24.s42.critic模块包含了两个结构完全相同的网络模型:当前critic网络q(s,a|θq)和目标critic网络q

(s,a|θq′
);actor模块包含了两个结构完全相同的网络模型:当前actor网络μ(s|θ
μ
)和目标actor网络μ

(s|θ
μ

);其中θq和θq′
分别为q和q

的参数,θ
μ
和θ
μ

分别为μ和μ

参数,q和q

的输入为状态s和动作a,输出为评价该次动作a的值,μ和μ

的输入为状态s,输出为智能体的下一步动作;
25.s43.采用td-error方式,对参数θq的更新,损失函数l为:
[0026][0027]
其中,i=1,2...n,n为批量抽取经验的数目,yi=ri+q

(s
i+1
,μ

(s
i+1

μ

)|θq′
),yi为损失函数l中的目标值;从经验池中抽取的transition(s,a,r,s

)和transitionm(sm,am,rm,s
′m),si为状态s和sm组成的集合,ai为动作a和am组成的集合,ri为奖励值r和rm组成的集
合,s
i+1
为状态s

和s
′m组成的集合;
[0028]
求得损失函数l针对θq的梯度对其进行梯度下降,得到更新后的θq;
[0029]
μ的网络参数θ
μ
的更新,遵循确定性策略,其梯度下降公式为:
[0030][0031]
其中,a=μ(si|θ
μ
),表示对a求导,表示对θ
μ
求导;
[0032]q′
和μ

采用软更新方式:
[0033]
θq′

τθq+(1-τ)θq′
[0034]
θ
μ


τθ
μ
+(1-τ)θ
μ

[0035]
其中,τ为平衡因子;
[0036]
s44.利用步骤s43的公式更新actor和critic模块,如果样本数量达到经验池的最大样本数量,则用最新的样本替换旧的样本。
[0037]
进一步地,所述步骤s41包括以下步骤:
[0038]
s41a.从经验池中抽取未完成任务的transition0(s0,a0,r0,s
′0),所述未完成任务的transition0是指智能体执行a0并没有完成任务;
[0039]
s41b.向a0添加n次噪声εi,生成新的探索性动作ai=a0+εi,i=1,2...n,εi是指向a0中添加服从高斯分布或ou分布的噪声,从而形成新的动作i=1,2...n,关节的角度如下:
[0040][0041]
s41c.将ai分别输入f(θ1,θ2…
θj),得到这些动作之后的末端执行器位姿pk和transitionk(s0,ak,rk,s
′k),k=0,1,2...n;中由确定;若pk超出机械臂控制任务的工作空间,则剔除此transitionk;
[0042]
s41d.将最大rk所在的transitionk记为transition
max
(s
max
,a
max
,r
max
,s

max
),并将transition
max
替换经验池中transition0,此过程使经验池中的经验更具更新网络的价值;
[0043]
s41e.将transition
max
中的s

max
作为动态规划中一回合的初始状态输入actor网络,将actor网络输出的动作再输入f(θ1,θ2…
θj),得到此动作之后的transition,并存储在经验池中;重复此过程直至达到每回合训练步数t,从经验池中抽取经验再次更新actor和critic模块,动态规划过程中的transition记为transitionm(sm,am,rm,s
′m)。
[0044]
有益效果:本发明与现有技术相比,其显著优点是:1、本发明通过在机械臂正向运动学模型中使用动态规划,减少了智能体与环境交互的次数,解决了无模型强化学习需要消耗大量时间和资源不断与环境交互的问题,提高了样本效率;2、本发明缩短了网络收敛的时间,提升了完成任务的成功率。
附图说明
[0045]
图1为实施例中所用的机械臂的结构示意图;
[0046]
图2为本发明的训练方法数据流程图;
[0047]
图3为本发明的训练方法训练流程图;
[0048]
图4为动态规划流程图;
[0049]
图5为本发明的训练方法的收敛曲线图;
[0050]
图6为传统ddpg的收敛曲线图。
具体实施方式
[0051]
下面结合附图对本发明作进一步说明。
[0052]
一种基于正向运动学的机械臂深度确定性策略梯度训练方法包括以下步骤:
[0053]
s1.搭建仿真环境中的机械臂训练环境;定义交互物体与机械臂类型、机械臂控制任务的最终目标;设计智能体一次动作之后的奖惩函数;明确动作空间a和状态空间s;确定训练的回合数m=46350和智能体每回合的训练步数t=16。
[0054]
其具体步骤包括:
[0055]
s11.用开源仿真平台v-rep搭建实验环境,使用物理引擎为ode,将用于完成任务的机械臂导入此仿真平台搭建的实验环境中,如图1所示。所示机械臂关节为4,其中关节1为绕世界坐标系z轴旋转的旋转关节,关节2、3、4均为旋转关节,将末端执行器视为固定关节5。
[0056]
s12.设定机械臂的控制任务为到达任务,任务描述为在一高度的水平面上随机位置放置物块,智能体需要控制机械臂到达物块的位置;奖惩函数设计如下:
[0057][0058][0059][0060]
r=r1+r2+r3[0061]
其中,r1定义了一个与机械臂末端位置坐标(xe,ye,ze)和物块笛卡尔坐标(xg,yg,zg)之间距离成负相关的回报值;r2定义了一个方向奖励函数,并且r2是r1的泛化版本,d表示当前机械臂末端与物体的距离,d

表示上一步时机械臂末端与物体的距离,r2表示了机械臂末端若比起上一步更接近物体,则可获得1的奖励值,反之则得到0的奖励值,r3表示了当前机械臂末端与物体的距离若大于0.01m则得到0的奖励值,若小于0.01m则视为任务完成并得到10的奖励值。总奖励值r为r1、r2、r3之和。
[0062]
s13.动作空间a中动作a为机械臂的4个关节角度记为a=(θ1,θ2,θ3,θ4),关节角度的范围均为[-90
°
,90
°
];状态空间s中s为:
[0063]
s=(θ1,θ2,θ3,θ4,xe,ye,ze,xr,yr,zr,xg,yg,zg)
[0064]
其中,(xe,ye,ze)为末端执行器位置p、(xr,yr,zr)为物块与末端执行器的相对位置、(xg,yg,zg)为物块的位置。
[0065]
s14.所述的仿真平台v-rep构建的智能体的动作、状态空间与奖励函数共同构建了智能体与环境交互的规则。
[0066]
s2.根据机械臂类型建立机械臂正向运动学模型。
[0067]
所述机械臂是串联机械臂如图3所示,根据该机械臂d-h参数(如表1所示)建立该机械臂正向运动学模型。即输入机械臂4个关节角度(θ1,θ2,θ3,θ4)得到末端执行器位置p=f(θ1,θ2,θ3,θ4)。
[0068]
表1
[0069]

i-1
(
°
)a
i-1
(m)di(m)θi(
°
)1000.0445θ12900.00250θ2300.0810θ3400.07750θ4500.12600
[0070]
s3.建立actor模块和critic模块;建立一个经验池存储智能体与环境交互产生的经验,每次与环境交互产生的经验称为一个transition(s,a,r,s

)并将此次transition存入经验池,具体包括:当前状态s,当前动作a,下一状态s

和观察s

后根据r得到的奖励值r。
[0071]
s31.建立包括当前actor网络和目标actor网络的actor模块,actor模块由4层全连接神经网络组成,每一层的神经元个数均为256,每层全连接层后面使用relu层作为激活函数,actor模块的输出层采用tanh激活函数使得输出值均在区间[-1,1]内,即机械臂的各个关节角度在每一步最多在某一方向上只能转动1
°
,若需要较大的转动角度,可以将策略网络的输出按比例放大。在进行实际角度控制时,本实施例乘以一个比例系数90,即每个关节在进行转动时的角度范围为[-90
°
,90
°
]。将状态s输入actor模块,actor模块输出智能体的下一步动作a。
[0072]
s32.建立包括当前critic网络和目标critic网络的critic模块,critic模块由4层全连接神经网络组成,每一层的神经元个数均为256,每层全连接层后面使用relu层作为激活函数。将状态s和动作a作为critic模块的输入,critic模块输出一个评价该次动作a的值q(s,a)。
[0073]
s33.为了使训练稳定,在当前actor网络和当前critic网络更新后,目标actor网络和目标critic网络才会开始更新。
[0074]
s4.将智能体与环境交互的经验存入经验池,达到每回合训练步数t后从经验池中抽取经验更新actor和critic模块,之后进行动态规划:从经验池中抽取未完成任务的transition0(s0,a0,r0,s
′0),并向a0添加10次噪声,每次噪声形成一个新的动作,生成10个不同的新的探索性动作(a1,a2...a
10
),此后将(a1,a2...a
10
)动作分别输入f(θ1,θ2,θ3,θ4),得到transitionk(sk,ak,rk,s
′k),k=0,1,2...10,将最大rk所在的transitionk记为transition
max
(s
max
,a
max
,r
max
,s

max
),并将transition
max
替换经验池中transitiono,之后将transition
max
中的s

max
作为动态规划中一回合的初始状态输入actor网络,将actor网络输出的动作再输入f(θ1,θ2,θ3,θ4),得到此动作之后的transition,并存储在经验池中;重复此过程直至达到每回合训练步数t,从经验池中抽取经验再次更新actor和critic模块。
[0075]
如图2、图3所示s4具体步骤包括:
[0076]
s41.智能体与环境交互达到每回合训练步数t后从经验池中抽取经验更新actor与critic模块。之后进行动态规划:
[0077]
如图4所示动态规划具体步骤包括:
[0078]
s41a.从经验池中抽取未完成任务的transition0(s0,a0,r0,s
′0),所述未完成任务的transition0是指智能体执行a0末端执行器并没有到达物块位置。
[0079]
s41b.向a0添加10次噪声,生成新的探索性动作ai=a0+εi,i=1,2...10,所述εi是指为了让智能体探索到更好的动作而向a0中添加服从某种概率分布的噪声,从而形成新的动作;本实施例εi服从ou分布。添加εi后的i=1,2...10,关节角度如下所示:
[0080][0081]
s41c.此后将ai分别输入f(θ1,θ2,θ3,θ4),得到这些动作之后的末端执行器位置pk和transitionk(s0,ak,rk,s
′k),k=0,1,2...10。所述中由和具体机械臂控制任务确定。
[0082][0083]
其中,为动作ak;为pk;由于本机械臂控制任务为到达任务,智能体执行动作ak后并不改变物块的位置,故为s0中物块的位置为物块与pk的相对位置。若pk超出本实施例机械臂到达任务的工作空间,则剔除此transitionk。
[0084]
s41d.将最大rk所在的transitionk记为transition
max
(s
max
,a
max
,r
max
,s

max
),并将transition
max
替换经验池中transition0。此过程使经验池中的经验更具更新网络的价值。
[0085]
s41e.之后将transitin
max
中的s

max
作为动态规划中一回合的初始状态输入actor网络,将actor网络输出的动作再输入f(θ1,θ2,θ3,θ4),得到此动作之后的transition,并存储在经验池中;重复此过程直至达到每回合训练步数t,从经验池中抽取经验再次更新actor和critic模块。动态规划过程中的transition记为transitionm(sm,am,rm,s
′m)。
[0086]
s42.critic模块包含了两个结构完全相同的网络模型:当前critic网络q(s,a|θq)和目标critic网络q

(s,a|θq′
);actor模块包含了两个结构完全相同的网络模型:当前actor网络μ(s|θ
μ
)和目标actor网络μ

(s|θ
μ

);其中θq和θq′
分别为q和q

的参数,θ
μ
和θ
μ

分别为μ和μ

参数,q和q

的输入为状态s和动作a,输出为评价该次动作a的值,μ和μ

的输入为状态s,输出为智能体的下一步动作。
[0087]
s43.采用td-error方式,对参数θq的更新,损失函数l为:
[0088][0089]
其中,i=1,2...n,n为批量抽取经验的数目,本实施例取值为16,yi=ri+q

(s
i+1
,μ

(s
i+1

μ

)|θq′
),yi为损失函数l中的目标值;从经验池中抽取的transition(s,a,r,s

)和transitionm(sm,am,rm,s
′m),si为状态s和sm组成的集合,ai为动作a和am组成的集合,ri为奖励值r和rm组成的集合,s
i+1
为状态s

和s
′m组成的集合;求得损失函数l针对θq的梯度对其进行梯度下降,得到更新后的θq;
[0090]
μ的网络参数θ
μ
的更新,遵循确定性策略,其梯度下降公式为:
[0091][0092]
其中,a=μ(si|θ
μ
),表示对a求导,表示对θ
μ
求导;
[0093]q′
和μ

采用软更新方式:
[0094]
θq′

τθq+(1-τ)θq′
[0095]
θ
μ


τθ
μ
+(1-τ)θ
μ

[0096]
其中,τ为平衡因子,本实施例中取值为0.005。
[0097]
s44.利用步骤s43的公式更新actor和critic模块,如果样本数量达到经验池的最大样本数量,则用最新的样本替换旧的样本;
[0098]
s5.重复步骤s4,直到达到训练回合数m。
[0099]
本发明的训练方法与传统ddpg的收敛曲线图如图5、图6所示,横坐标为训练的回合数,纵坐标为平均奖励,所述平均奖励是指当前所有回合的累计奖励除以当前回合数。从图6可以看出,传统ddpg在第26465回合时平均奖励值达到4左右,开始收敛,但达到最大训练回合m时平均奖励值仅为6左右,也未完成收敛,并且训练过程中很不稳定,在2369、11580、25230回合时出现平均奖励值下降的现象;从图5可以看出,本发明训练方法在5980回合时平均奖励值达到5左右,开始逐步收敛,并在30000回合以后完成收敛,平均奖励值稳定在9左右,并且训练稳定。由此可以看出本训练方法较传统ddpg收敛更快、训练更稳定。
[0100]
本发明的训练方法与传统ddpg训练完成后完成任务成功率如表2所示。所述完成任务成功率是指:总计测试n次,每次测试随机初始化物块位置,在规定t=16个步长内到达物块位置的次数m除以n,如表2所示,总共测试100次,传统ddpg完成任务成功率为92%,本发明训练方法完成任务成功率为100%。由此可以看出本发明的训练方法完成任务的成功率较传统ddpg有显著的提升。
[0101]
表2
[0102]

技术特征:


1.一种基于正向运动学的机械臂深度确定性策略梯度训练方法,其特征在于,包括以下步骤:s1.搭建仿真环境中的机械臂训练环境,确定每回合训练步数t和训练回合数m;s2.根据机械臂类型建立机械臂正向运动学模型:输入机械臂j个关节角度为(θ1,θ2…
θ
j
)得到末端执行器位姿p=f(θ1,θ2…
θ
j
);s3.建立actor模块和critic模块;建立一个经验池,每次智能体与环境交互产生的经验称为一个transition(s,a,r,s

)并将此次transition存入经验池,其中,s为当前状态,a为当前动作由机械臂j个关节角度表示a=(θ1,θ2…
θ
j
),s

为下一状态,r为观察s

后根据奖惩函数r得到的奖励值;s4.达到训练步数t后从经验池中抽取经验更新actor和critic模块,进行动态规划:从经验池中抽取未完成任务的transition0(s0,a0,r0,s
′0),并向transition0中的a0添加n次噪声,生成n个不同的动作a1,a2...a
n
,此后将a0,a1,a2...a
n
分别输入f(θ1,θ2…
θ
j
),得到transition
k
(s
k
,a
k
,r
k
,s

k
),k=0,1,2...n,将最大奖励值r
k
所在的transition
k
记为transition
max
(s
max
,a
max
,r
max
,s

max
),并将transition
max
替换经验池中transition
o
,之后将transition
max
中的s

max
作为动态规划中一回合的初始状态输入actor网络,将actor网络输出的动作再输入f(θ1,θ2…
θ
j
),得到此动作之后的transition,并存储在经验池中;重复此过程直至达到每回合训练步数t,从经验池中抽取经验再次更新actor和critic模块;s5.重复步骤s4,直到达到训练回合数m。2.根据权利要求1所述基于正向运动学的机械臂深度确定性策略梯度训练方法,其特征在于,所述步骤s1包括以下步骤:s11.使用开源仿真平台搭建实验环境,确定物理引擎,将用于完成任务的机械臂导入此仿真平台搭建的实验环境中;s12.设定机械臂的控制任务;根据机械臂的控制任务设计奖惩函数r;每回合训练步数t是指每回合智能体与环境交互的次数;训练回合数m和训练步数t由实际训练效果决定;s13.定义机械臂控制任务的动作空间和状态空间;动作空间a中动作a为机械臂的j个关节角度记为a=(θ1,θ2…
θ
j
);关节的角度范围l=1,2...j,为关节最小角度,为关节最大角度;状态空间s中状态s由末端执行器位姿p(x,y,z,α,β,γ)和步骤s12所设定的机械臂控制任务决定,记为s=(p,s
d
),其中(x,y,z)为末端执行器位置,(αβ,γ)为末端执行器姿态,s
d
为状态s中不包括末端执行器位姿p的部分。3.根据权利要求2所述基于正向运动学的机械臂深度确定性策略梯度训练方法,其特征在于,所述步骤s3包括以下步骤:s31.建立智能体的actor模块,将状态s输入actor模块,actor模块输出智能体的下一步动作a;s32.建立智能体的critic模块,将状态s和动作a作为critic模块的输入,critic模块输出一个评价该次动作a的值q(s,a);s33.当前actor网络和critic网络更新后,目标actor网络和critic网络才会开始更新。4.根据权利要求3所述基于正向运动学的机械臂深度确定性策略梯度训练方法,其特
征在于,所述步骤s4包括以下步骤:s41.智能体与环境交互达到每回合训练步数t后,从经验池中抽取经验更新actor与critic模块后,进行动态规划,s42.critic模块包含了两个结构完全相同的网络模型:当前critic网络q(s,a|θ
q
)和目标critic网络q

(s,a|θ
q

);actor模块包含了两个结构完全相同的网络模型:当前actor网络μ(s|θ
μ
)和目标actor网络μ

(s|θ
μ

);其中θ
q
和θ
q

分别为q和q

的参数,θ
μ
和θ
μ

分别为μ和μ

参数,q和q

的输入为状态s和动作a,输出为评价该次动作a的值,μ和μ

的输入为状态s,输出为智能体的下一步动作;s43.采用td-error方式,对参数θ
q
的更新,损失函数l为:其中,i=1,2...n,n为批量抽取经验的数目,y
i
=r
i
+q

(s
i+1
,μ

(s
i+1

μ

)|θ
q

),y
i
为损失函数l中的目标值;从经验池中抽取的transition(s,a,r,s

)和transition
m
(s
m
,a
m
,r
m
,s

m
),s
i
为状态s和s
m
组成的集合,a
i
为动作a和a
m
组成的集合,r
i
为奖励值r和r
m
组成的集合,s
i+1
为状态s

和s

m
组成的集合;求得损失函数l针对θ
q
的梯度对其进行梯度下降,得到更新后的θ
q
;μ的网络参数θ
μ
的更新,遵循确定性策略,其梯度下降公式为:其中,a=μ(s
i

μ
),表示对a求导,表示对θ
μ
求导;q

和μ

采用软更新方式:θ
q


τθ
q
+(1-τ)θ
q

θ
μ


τθ
μ
+(1-τ)θ
μ

其中,τ为平衡因子;s44.利用步骤s43的公式更新actor和critic模块,如果样本数量达到经验池的最大样本数量,则用最新的样本替换旧的样本。5.根据权利要求4所述基于正向运动学的机械臂深度确定性策略梯度训练方法,其特征在于,所述步骤s41包括以下步骤:s41a.从经验池中抽取未完成任务的transition0(s0,a0,r0,s
′0),所述未完成任务的transition0是指智能体执行a0并没有完成任务;s41b.向a0添加n次噪声ε
i
,生成新的探索性动作a
i
=a0+ε
i
,i=1,2...n,ε
i
是指向a0中添加服从高斯分布或ou分布的噪声,从而形成新的动作i=1,2...n,关节的角度如下:
s41c.将a
i
分别输入f(θ1,θ2…
θ
j
),得到这些动作之后的末端执行器位姿p
k
和transition
k
(s0,a
k
,r
k
,s

k
),k=0,1,2...n;中由确定;若p
k
超出机械臂控制任务的工作空间,则剔除此transition
k
;s41d.将最大r
k
所在的transition
k
记为transition
max
(s
max
,a
max
,r
max
,s

max
),并将transition
max
替换经验池中transition0,此过程使经验池中的经验更具更新网络的价值;s41e.将transition
max
中的s

max
作为动态规划中一回合的初始状态输入actor网络,将actor网络输出的动作再输入f(θ1,θ2…
θ
j
),得到此动作之后的transition,并存储在经验池中;重复此过程直至达到每回合训练步数t,从经验池中抽取经验再次更新actor和critic模块,动态规划过程中的transition记为transition
m
(s
m
,a
m
,r
m
,s

m
)。

技术总结


本发明公开了一种基于正向运动学的机械臂深度确定性策略梯度训练方法,通过在所建立机械臂正向运动学模型中动态规划,减少了智能体与环境交互的次数,克服了无模型强化学习需要消耗大量时间和资源不断与环境交互的缺点,除此之外本发明还使经验池中的数据更具更新价值。本发明缩短了网络收敛的时间,完成任务的成功率较传统深度确定性策略梯度算法有显著的提升。著的提升。著的提升。


技术研发人员:

苏世杰 朱大双 张建 唐文献 殷宝吉 陈赟

受保护的技术使用者:

江苏科技大学

技术研发日:

2022.08.18

技术公布日:

2022/11/22

本文发布于:2024-09-20 11:42:28,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/3/615.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:经验   动作   机械   模块
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议