一种基于因果注意力的室内视觉导航方法



1.本发明涉及视觉导航技术,具体涉及一种基于因果注意力的室内视觉导航方法。


背景技术:



2.室内视觉导航是涉及室内视觉环境的导航任务,旨在依据从环境中观测的视觉图像,预测并执行导航动作,以到达指定目的地,完成导航目标。现有用以解决室内视觉导航的方法大致包括两个步骤,其一是视觉环境状态理解,其二是导航动作预测。
3.视觉状态理解类方法聚焦于理解观测的视觉图像信息、分析环境状态,通过构建具有复杂结构和机制的表征模型,对各时刻的环境视觉状态特征和历史状态特征进行提取。
4.导航动作预测类方法则旨在依据视觉状态特征预测导航动作,通过构建有效的路径规划策略、环境探索模式和奖励反馈机制,制定最佳导航动作序列,以到达指定目的地,完成导航任务。
5.由于室内视觉导航环境中复杂高维的状态空间,以及表示学习和大规模预训练模型等技术的发展,现有工作大多关注于视觉环境状态理解类方法。现有基于transformer的室内视觉导航方法中,视觉环境状态理解类方法通过构建具有强大特征表征能力的表示模型,并从大规模图像预训练模型中获取的先验知识,显著地提升了导航模型的预测性能。然而,受环境隐藏因素的影响,该类方法存在过度关注虚假相关性的问题,在未知环境的泛化预测效果相对一般。


技术实现要素:



6.本发明所要解决的技术问题是:提出一种基于因果注意力的室内视觉导航方法,解决传统室内视觉导航方案存在的过度关注特征间虚假相关性,降低模型泛化能力的问题。
7.本发明解决上述技术问题采用的技术方案是:
8.一种基于因果注意力的室内视觉导航方法,包括以下步骤:
9.a、数据准备
10.获取室内视觉图像数据集,所述室内视觉图像数据集包括一组导航轨迹数据,各导航轨迹数据分别包括由位置序列构成的导航轨迹以及导航轨迹上各位置处的视觉图像序列,各视觉图像序列分别包括在对应位置处各个观测方向的图像;
11.并基于导航轨迹数据,构建到达终点前导航轨迹各位置处的导航方向对应图像所构成的导航图像序列,所述导航方向对应图像为从对应位置的视觉图像序列中,按对应位置到达导航轨迹下一位置的方向所确定的图像;然后,对所有导航轨迹数据的导航图像序列,进行视觉特征提取并聚类,获得聚类中心;
12.b、通过室内视觉导航模型执行室内视觉导航任务:
13.b1、以导航起点位置作为初始的当前位置,并随机初始化历史状态特征;
14.b2、观测当前位置的各个观测方向,获得当前位置的视觉图像序列,提取当前位置视觉图像序列中各图像的视觉特征,并编码获得各观测方向的位置特征,并根据各图像的视觉特征与各聚类中心的距离,获得各图像的全局特征;
15.b3、将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征;
16.融合各图像的视觉图像特征及其位置特征,并通过自注意力机制,计算当前位置视觉图像序列各图像的自注意力特征;
17.融合各图像的视觉图像特征和位置特征,构建查询向量;根据各图像的全局特征,构建键向量和值向量,然后,基于构建的查询向量、键向量和值向量,通过因果注意力机制,计算当前位置视觉图像序列各图像的因果注意力特征;
18.然后,融合各图像的自注意力特征及其因果注意力特征,获得当前位置视觉图像序列各图像的视觉环境状态特征;
19.b4、根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,根据相关性预测当前位置的导航动作;
20.b5、根据当前位置的导航动作确定导航的下一位置,判定是否到达终点或者是否达到预设的最大导航步数,若是,则结束导航,否则,执行步骤b6;
21.b6、根据步骤b3获得的当前位置的视觉环境状态特征,以及步骤b4预测的当前位置的导航动作,更新历史状态特征;将当前位置导航动作确定的下一位置以及更新后的历史状态特征作为输入,返回步骤b2。
22.进一步的,按如下步骤训练室内视觉导航模型:
23.c1、以室内视觉图像数据集作为训练数据集并计算获得聚类中心;
24.c2、从训练数据集提取一条导航轨迹数据,将其全部或部分作为本轮训练的导航轨迹数据;
25.c3、从输入的导航轨迹数据中,提取其起点的视觉图像序列,作为初始输入的视觉图像序列,并随机初始化历史状态特征;
26.c4、以输入视觉图像序列对应位置作为当前位置,提取当前位置视觉图像序列中各图像的视觉特征,并编码获得各观测方向的位置特征,并根据各图像的视觉特征与各聚类中心的距离,获得各图像的全局特征;
27.c5、将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征;然后,计算当前位置的自注意力特征和因果注意力特征,并融合自注意力特征及其因果注意力特征,获得视觉环境状态特征;
28.c6、根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,根据相关性预测当前位置的导航动作;
29.c7、判定是否到达输入导航轨迹数据的终点,若是,则执行步骤c9,否则执行步骤c8;
30.c8、根据步骤c5获得的当前位置的视觉环境状态特征,以及步骤c6预测的当前位置的导航动作,更新历史状态特征;从导航轨迹数据中,提取导航轨迹下一位置的视觉图像
序列,并将该视觉图像序列以及更新后的历史状态特征作为输入,返回步骤c4;
31.c9、根据各位置处预设的专家导航动作和预测的导航动作,计算其损失,并根据累计损失对室内视觉导航模型的参数进行更新;
32.c10、重复步骤c2-c9进行迭代训练,直至满足训练终止条件,获得训练好的室内视觉导航模型。
33.进一步的,在步骤b中,初始时,采用训练时获得的聚类中心,并将训练时室内视觉图像数据集的导航轨迹数据作为初始的历史导航轨迹数据;在执行室内视觉导航任务后,收集已实际完成的导航任务的导航轨迹数据,在收集达到设定数量后,根据收集到的导航轨迹数据对历史导航轨迹数据进行更新,并基于更新后的历史导航轨迹数据对聚类中心进行更新。
34.进一步的,步骤c9中,累计损失按如下损失函数计算:
35.l=w1l
il
+w2l
rl
36.其中,w1和w2均为可训练参数,l
il
表示模仿学习产生的损失,l
rl
表示强化学习产生的损失,所述强化学习采用执行者评论者框架,其中执行者网络为室内视觉导航模型,评论者网络为前馈神经网络;
37.其中,l
il
和l
rl
分别按如下公式计算:
[0038][0039][0040]
其中,a
t
表示t时刻位置的预测的导航动作,表示t时刻位置的预设的专家导航动作,π
t
表示t时刻位置视觉图像序列视觉特征与其对应视觉环境状态特征之间的相关性,g
t
表示t时刻位置执行者网络的累计收益,td
t
为t时刻位置评论者网络的输出并如下公式计算:
[0041]
td
t
=max(0,π
twtd1
)w
td2
[0042]
其中,w
td1
和w
td2
为可训练参数。
[0043]
进一步的,按如下公式,计算执行者网络的累计收益g
t

[0044][0045][0046]
其中,p
cur
表示t时刻位置的预测的导航动作所对应的下一时刻的位置,p
goal
表示t时刻专家导航动作所对应的下一时刻的位置,dis(
·
)表示欧式距离,γ
t
表示t时刻的衰减因子。
[0047]
具体的,聚类中心的计算,包括:
[0048]
d1、提取各导航轨迹数据的导航图像序列中各图像的视觉特征,并将提取获得的所有视觉特征构成全局视觉特征数据集;
[0049]
d2、设定k个聚类中心并初始化;
[0050]
d3、根据全局视觉特征数据集,分别计算其中各视觉特征与各聚类中心的欧式距离;
[0051]
d4、基于各视觉特征与各聚类中心的最小距离,对各视觉特征进行分类;
[0052]
d5、按如下公式对聚类中心的值进行更新:
[0053][0054]
其中,gk表示第k个聚类中心的值,ck表示第k个聚类中心所包含视觉特征的集合;
[0055]
d6、重复上述步骤d3~d5,对聚类中心的值进行迭代更新,直至所有聚类中心值的变化小于预设阈值或超过预设迭代轮次。
[0056]
具体的,根据当前位置视觉图像序列中各图像的视觉特征与各聚类中心的距离,获得全局特征其中,表示第i个观测方向的图像的全局特征,n为观测方向的数量,并按如下步骤计算:
[0057]
分别计算第i个观测方向的图像的视觉特征与k个聚类中心的距离,并取其与k个聚类中心距离的均值,作为其全局特征
[0058]
具体的,将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征,包括:
[0059]
首先,将视觉特征f
t
={f1,f2,
…fi
,

,fn}分别进行全局平均池化;
[0060]
然后,采用向量拼接的形式,将历史状态特征h
t-1
分别融入全局平均池化后的各个视觉特征,获得各图像的视觉图像特征c
t
={c1,c2,
…ci
,

,cn},其中,t表示当前位置,t-1表示当前位置的上一位置。
[0061]
具体的,位置特征采用预训练bert模型进行绝对位置编码。
[0062]
具体的,各步骤中,均采用残差神经网络提取图像的视觉特征。
[0063]
具体的,融合各图像的视觉图像特征及其位置特征,并通过自注意力机制,计算当前位置视觉图像序列各图像的自注意力特征,包括:
[0064]
首先,通过拼接的方式融合视觉图像特征及其位置特征,然后,通过不同参数的多层感知机网络,将融合获得的特征转换为查询向量qs、键向量ks和值向量vs:
[0065]qs
=max(0,(c
t
+pe
t
)w
qs
+b
qs
)
[0066]ks
=max(0,(c
t
+pe
t
)w
ks
+b
ks
)
[0067]vs
=max(0,(c
t
+pe
t
)w
vs
+b
vs
)
[0068]
其中,c
t
表示当前位置的视觉图像特征,pe
t
表示当前位置的位置特征,w
qs
、b
qs
、w
ks
、b
ks
、w
vs
以及b
vs
均为多层感知机网络的参数;
[0069]
然后,计算注意力权重as:
[0070][0071]
其中,dim为多层感知机网络的维度,t表示矩阵转置;
[0072]
最后,通过注意力权重和值向量,计算获得自注意力特征:
[0073]
sa
t
=softmax(a
svs
)
[0074]
其中,sa
t
表示当前位置的自注意力特征。
[0075]
具体的,融合各图像的视觉图像特征和位置特征,构建查询向量;根据各图像的全局特征,构建键向量和值向量,然后,基于构建的查询向量、键向量和值向量,通过因果注意力机制,计算当前位置视觉图像序列各图像的因果注意力特征,包括:
[0076]
首先,通过拼接的方式融合视觉图像特征及其位置特征,然后,通过多层感知机网络,将融合获得的特征转换为查询向量qc:
[0077]
qc=max(0,(c
t
+pe
t
)w
qc
+b
qc
)
[0078]
并通过不同参数的多层感知机网络,将当前位置对应的视觉图像序列的全局特征,转换为键向量kc和值向量vc:
[0079][0080][0081]
其中,c
t
表示当前位置的视觉图像特征,pe
t
表示当前位置的位置特征,表示全局特征,w
qc
、b
qc
、w
kc
、b
kc
、w
vc
以及b
vc
均为多层感知机网络的参数;
[0082]
然后,计算注意力权重ac:
[0083][0084]
其中,dim为多层感知机网络的维度,t表示矩阵转置;
[0085]
最后,通过注意力权重和值向量,计算获得因果注意力特征:
[0086]
ca
t
=softmax(a
cvc
)
[0087]
其中,ca
t
表示当前位置的因果注意力特征。
[0088]
具体的,融合各图像的自注意力特征及其因果注意力特征,获得当前位置视觉图像序列各图像的视觉环境状态特征,包括:
[0089]
首先,通过向量拼接的方式,融合自注意力特征sa
t
和因果注意力特征ca
t
,获得融合特征[sa
t
,ca
t
];
[0090]
然后,采用前馈神经网络,将融合特征[sa
t
,ca
t
],转换为视觉环境状态特征s
t

[0091]st
=max(0,[sa
t
,ca
t
]w
ffn1
+b
ffn1
)w
ffn2
+b
ffn2
[0092]
其中,均为前馈神经网络的参数,dim为注意力计算中构建查询向量、键向量和值向量的编码网络的维度,n为观测方向的数量。
[0093]
进一步的,所述导航轨迹数据,还包括导航轨迹各位置处的可导航方向标签,在步骤c6中,仅将具有可导航方向标签的方向作为可导航方向;在步骤b4中,将所有观测方向作为可导航方向。
[0094]
具体的,根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,根据相关性预测当前位置的导航动作,包括:
[0095]
首先,计算当前位置视觉图像序列各可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性π
t

[0096][0097]
其中,表示当前位置视觉图像序列中可导航方向的图像的视觉特征,s
t
表示当前位置视觉图像序列中可导航方向的图像的视觉环境状态特征;
[0098]
然后,根据相关性π
t
预测当前位置的导航动作a
t

[0099]at
=argmaxmπ
t,m
[0100]
其中,π
t,m
表示v
t
序列中第m个方向的相关性。
[0101]
具体的,根据当前位置的视觉环境状态特征,以及预测的当前位置的导航动作,更新历史状态特征,包括:
[0102]
首先,通过重置门,筛选当前位置的视觉环境状态特征s
t
和预测的当前位置的导航动作ar的关键特征,并将其融合到当前位置的上一时刻的历史状态特征h
t-1

[0103]rt
=σ(w
rht-1
+ur[s
t

t
,a
t
])
[0104][0105]
其中,π
t
表示当前位置视觉图像序列各可导航方向图像的视觉特征与其对应视觉环境状态特征之间的相关性,r
t
表示遗忘门权重,wr、ur、wg和ug均为可训练参数,σ(
·
)和tanh(
·
)表示激活函数,

表示哈达曼积运算,t表示当前位置,t-1表示当前位置的上一位置;
[0106]
然后,通过更新门,筛选需保留的有效历史信息z
t
,并将其融合到当前位置的上一时刻的历史状态特征h
t-1
,对历史状态特征进行更新:
[0107]zt
=σ(w
zht-1
+uz[s
t

t
,a
t
])
[0108][0109]
其中,z
t
表示更新门权重,wz和uz均为可训练参数。
[0110]
本发明的有益效果是:
[0111]
现有基于transformer的室内觉语言导航方法,通过自注意力机制捕获视觉特征之间的相关性,以预测导航动作。然而,自注意力机制的相关性计算,受限于训练数据集中特征之间的共现频率,容易捕获到虚假相关性,导致其训练的模型仅在训练数据集中表现良好,在其他数据集中表现不佳。
[0112]
而本发明提出的因果注意力机制,则通过干预的方式修正错误相关性,即将当前特征映射为其他特征,以判断在其他场景下是否仍然存在相关性,以此达到提升模型在未知环境的泛化能力。具体的讲,本发明根据历史的导航轨迹数据构建聚类中心,并根据聚类中心获得当前位置各观测方向的全局特征,然后,通过因果注意力机制,修正自注意机制捕获的错误相关性,提升模型在未知测试环境的预测准确性。
附图说明
[0113]
图1为本发明实施例中的室内视觉导航模型训练流程图;
[0114]
图2为本发明实施例中的视觉环境状态特征提取过程图;
[0115]
图3为本发明实施例中的导航动作预测过程图;
[0116]
图4为本发明实施例中的历史状态特征更新过程图。
具体实施方式
[0117]
本发明旨在提出一种基于因果注意力的室内视觉导航方法,解决传统室内视觉导航方案存在的过度关注特征间虚假相关性,降低模型泛化能力的问题。该基于因果注意力的室内视觉导航方法,包括室内视觉导航模型训练和利用模型执行导航任务两大部分,但流程类似,以下部分以室内视觉导航模型训练为主进行阐述。
[0118]
该方法在室内视觉导航模型训练过程中,首先,根据视觉图像数据集,对其中各导航轨迹各位置处的导航方向对应图像进行聚类,计算聚类中心;接着,提取当前时刻图像的视觉特征和位置特征,根据视觉特征与聚类中心的距离,计算全局特征;接着,将视觉特征融合历史状态特征和位置特征,通过自注意力机制,计算自注意力特征,并根据视觉特征融合历史状态特征和位置特征构建查询向量,以图像全局特征构建键向量和值向量,通过因果注意力机制,计算因果注意力特征;然后,融合自注意力特征和因果注意力特征,获得各图像的视觉环境状态特征;再然后,通过计算当前位置视觉特征与对应视觉环境状态特征之间的相关性,预测当前位置的导航动作;最后,根据预测的当前位置导航动作和当前位置的视觉环境状态特征,更新历史状态特征,将更新后的历史状态特征与下一导航位置的图像作为输入,并采用完成导航实例任务后的累计损失进行迭代训练,获得训练好的室内视觉导航模型。
[0119]
下面结合附图及实施例对本发明的方案作进一步的描述。
[0120]
为了便于理解,首先对本实施例中可能涉及的技术名词进行说明:
[0121]
残差神经网络(residual network,resnet):是一种用于图像识别的卷积神经网络模型,主要由若干堆叠的残差层组成,目前在各种计算机视觉任务中,常被用于提取输入图像的视觉特征。
[0122]
注意力机制(attention):是一种选择性处理特征的机制,主要由查询向量、键向量、值向量和注意力运算组成,目前已成为大多数深度学习模型中不可或缺的基础组件。
[0123]
transformer:是一种基于自注意力机制的编码器-解码器模型,最初应用于机器翻译和序列建模等序列转换任务,并成为自然语言处理领域主要的深度学习模型。由于其强大的性能表现,transformer逐渐被广泛应用于计算机视觉领域,以提取图像的视觉特征。
[0124]
执行者-评论者(actor-critic,ac):是强化学习中求解最优策略的一种最常用的方法,其同时结合策略梯度和价值估计这两种策略求解方式,主要由策略网络和价值评估网络组成。
[0125]
前门调整(front door adjustment,fda):是因果推理中一种实现干预的方法,通过阻断前门路径对干预分布进行估计,即使在无法有效观测隐藏混杂因素的情况下,依然能分析特征变量间因果关系。
[0126]
实施例:
[0127]
其中,模型训练过程,如图1所示,具体说明如下:
[0128]
s1、训练数据集数据预处理
[0129]
训练采用室内视觉图像数据集作为训练数据集。所述室内视觉图像数据集包括一组导航轨迹数据,各导航轨迹数据分别包括由位置序列构成的导航轨迹以及导航轨迹上各位置处的视觉图像序列,各视觉图像序列分别包括在对应位置处各个观测方向的图像。
[0130]
假定当前位置为t,则t位置的视觉图像序列,可表示为v
t
={v1,v2,

vi,

,vn},其中,n表示观测方向的数量,vi表示t位置处在第i个观测方向观测获得的图像,图像格式均为rgb图像,可表示为h和w分别表示图像的高度和宽度。
[0131]
然后,基于导航轨迹数据,构建到达终点前导航轨迹各位置处的导航方向对应图像所构成的导航图像序列,所述导航方向对应图像为从对应位置的视觉图像序列中,按对应位置到达导航轨迹下一位置的方向所确定的图像;然后,对所有导航轨迹数据的导航图像序列,进行视觉特征提取并聚类,获得聚类中心。
[0132]
聚类中心的计算,包括:
[0133]
a1、通过resnet-164残差神经网络,提取各导航轨迹数据的导航图像序列中各图像的视觉特征,并将提取获得的所有视觉特征构成全局视觉特征数据集。除残差神经网络以外,视觉特征的提取也可以采用现有的其他方式,比如transformer。
[0134]
a2、设定k个聚类中心,并从全局视觉特征数据集,随机采样k个视觉特征,作为k个聚类中心的初始化值。聚类中心的初始化,也可以采用其他的方式,如随机赋值或人工赋值。
[0135]
a3、根据全局视觉特征数据集,分别计算其中各视觉特征与各聚类中心的欧式距离;
[0136]
a4、基于各视觉特征与各聚类中心的最小距离,对各视觉特征进行分类;
[0137]
a5、按如下公式对聚类中心的值进行更新:
[0138][0139]
其中,gk表示第k个聚类中心的值,ck表示第k个聚类中心所包含视觉特征的集合;
[0140]
a6、重复上述步骤a3~a5,对聚类中心的值进行迭代更新,直至所有聚类中心值的变化小于预设阈值或超过预设迭代轮次。若超过预设迭代轮次,则表明计算失败,应重新进行聚类计算。
[0141]
s2、提取导航轨迹数据并训练室内视觉导航模型
[0142]
s21、从训练数据集提取一条导航轨迹数据作为训练的输入。若提取的导航轨迹数据的导航步较多,也可以将其进行分段输入,也即在训练过程中,仅提取其部分作为输入。
[0143]
s22、初始化:从输入的导航轨迹数据中,提取其起点的视觉图像序列,作为初始输入的视觉图像序列,并随机初始化历史状态特征。
[0144]
s23、以输入视觉图像序列对应位置作为当前位置,提取当前位置视觉图像序列中各图像的视觉特征,并编码获得各观测方向的位置特征,并根据各图像的视觉特征与各聚类中心的距离,获得各图像的全局特征。
[0145]
针对本实施例中,各类特征的提取,具体说明如下:
[0146]
一、视觉特征提取
[0147]
对于当前位置t观测获得的视觉图像序列为v
t
={v1,v2,

vi,

,vn},使用resnet-164残差神经网络,提取视觉特征f
t
={f1,f2,
…fi
,

,fn},fi表示t位置处的第i个方向的视觉特征。
[0148]
二、位置特征编码
[0149]
由于在后续的视觉环境状态特征提取过程中,无法通过视觉图像特征识别各图像的位置关系,需要一个位置编码向量,以表征图像的方向位置信息。因此,本发明通过位置特征表征图像的方向位置信息,且位置特征和后续的视觉图像特征的维度相同。
[0150]
实施例中,位置特征采用预训练bert模型进行绝对位置编码,编码过程为:
[0151]
首先,初始化位置特征pe
t
={pe1,pe2,

pei,

,pen},其初始化可以采用任意的现有方式,在实施例中为pe
t
={[1,1,..,1],[2,2..,2]

,[n,n,..,n]},其中,pei表示第i个观测方向的位置特征,n为观测方向的数量,t表示当前位置;
[0152]
然后,将初始化位置特征,输入预训练bert模型,通过学习获得每个位置的绝对位置编码。
[0153]
上述预训练bert模型,其来自google的论文pre-training of deep bidirectional transformers for language understanding,其使用了transformer的encoder模块,bert是“bidirectional encoder representations from transformers”的首字母缩写。
[0154]
三、全局特征提取
[0155]
根据当前位置视觉图像序列中各图像的视觉特征与各聚类中心的距离,获得全局特征其中,表示第i个观测方向的图像的全局特征,n为观测方向的数量,并按如下步骤计算:
[0156]
分别计算第i个观测方向的图像的视觉特征与k个聚类中心的距离,并取其与k个聚类中心距离的均值,作为其全局特征
[0157]
s24、计算图像的视觉环境状态特征
[0158]
视觉环境状态特征,如图2所示,为融合图像的自注意力特征及其因果注意力特征所获得,用以捕获视觉特征之间的关联关系和因果关系。
[0159]
本步骤中,首先,将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征。
[0160]
然后,融合各图像的视觉图像特征及其位置特征,并通过自注意力机制,计算当前位置视觉图像序列各图像的自注意力特征。融合各图像的视觉图像特征和位置特征,构建查询向量;根据各图像的全局特征,构建键向量和值向量,然后,基于构建的查询向量、键向量和值向量,通过因果注意力机制,计算当前位置视觉图像序列各图像的因果注意力特征。
[0161]
最后,融合各图像的自注意力特征及其因果注意力特征,获得当前位置视觉图像序列各图像的视觉环境状态特征。
[0162]
具体说明如下:
[0163]
一、计算视觉图像特征
[0164]
首先,为了方便进行向量拼接,将视觉特征f
t
={f1,f2,
…fi
,

,fn}分别进行全局平均池化,将张量降维为向量;
[0165]
然后,采用向量拼接的形式,将历史状态特征h
t-1
分别融入全局平均池化后的各个视觉特征,获得各图像的视觉图像特征c
t
={c1,c2,
…ci
,

,cn},其中,t表示当前位置,t-1表示当前位置的上一位置。
[0166]
二、计算自注意力特征
[0167]
首先,通过拼接的方式融合视觉图像特征及其位置特征,然后,通过不同参数的多层感知机网络,将融合获得的特征转换为查询向量qs、键向量ks和值向量vs:
[0168]qs
=max(0,(c
t
+pe
t
)w
qs
+b
qs
)
[0169]ks
=max(0,(c
t
+pe
t
)w
ks
+b
ks
)
[0170]vs
=max(0,(c
t
+pe
t
)w
vs
+b
vs
)
[0171]
其中,c
t
表示当前位置的视觉图像特征,pe
t
表示当前位置的位置特征,w
qs
、b
qs
、w
ks
、b
ks
、w
vs
以及b
vs
均为多层感知机网络的参数;
[0172]
然后,计算注意力权重as:
[0173][0174]
其中,dim为多层感知机网络的维度,t表示矩阵转置;
[0175]
最后,通过注意力权重和值向量,计算获得自注意力特征:
[0176]
sa
t
=softmax(a
svs
)
[0177]
其中,sa
t
表示当前位置的自注意力特征。
[0178]
三、计算因果注意力特征
[0179]
首先,通过拼接的方式融合视觉图像特征及其位置特征,然后,通过多层感知机网络,将融合获得的特征转换为查询向量qc:
[0180]
qc=max(0,(c
t
+pe
t
)w
qc
+b
qc
)
[0181]
并通过不同参数的多层感知机网络,将当前位置对应的视觉图像序列的全局特征,转换为键向量kc和值向量vc:
[0182][0183][0184]
其中,c
t
表示当前位置的视觉图像特征,pe
t
表示当前位置的位置特征,表示全局特征,w
qc
、b
qc
、w
kc
、b
kc
、w
vc
以及b
vc
均为多层感知机网络的参数;
[0185]
然后,计算注意力权重ac:
[0186][0187]
其中,dim为多层感知机网络的维度,t表示矩阵转置;
[0188]
最后,通过注意力权重和值向量,计算获得因果注意力特征:
[0189]
ca
t
=softmax(a
cvc
)
[0190]
其中,ca
t
表示当前位置的因果注意力特征。
[0191]
因果注意力机制,是基于因果推理的前门调整方式,通过阻断前门路径,干预变量输入,分析特征变量间因果关系,以纠正自注意力机制在已知训练数据中建立的虚假相关性。实际实施过程,如果依次使用训练数据集的所有导航轨迹数据进行干预,会消耗大量计算资源,因此,本发明使用全局特征进行代替。因此,为了保证全局特征的代表性,保证模型的泛化性能,在执行室内视觉导航任务时,初始时,采用训练时获得的聚类中心,并将训练时室内视觉图像数据集的导航轨迹数据作为初始的历史导航轨迹数据;在执行室内视觉导航任务后,收集已实际完成的导航任务的导航轨迹数据,在收集达到设定数量后,根据收集
到的导航轨迹数据对历史导航轨迹数据进行更新,并基于更新后的历史导航轨迹数据按步骤a1~a6对聚类中心进行更新。
[0192]
四、融合自注意力特征和因果注意力特征
[0193]
首先,通过向量拼接的方式,融合自注意力特征sa
t
和因果注意力特征ca
t
,获得融合特征[sa
t
,ca
t
];
[0194]
然后,采用前馈神经网络,将融合特征[sa
t
,ca
t
],转换为视觉环境状态特征s
t

[0195]st
=max(0,[sa
t
,ca
t
]w
ffn1
+b
ffn1
)w
ffn2
+b
ffn2
[0196]
其中,均为前馈神经网络的参数,dim为注意力计算中构建查询向量、键向量和值向量的编码网络的维度,n为观测方向的数量。
[0197]
s25、预测当前位置导航动作
[0198]
本步骤中,首先,根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,然后,根据相关性预测当前位置的导航动作,过程如图3所示,具体包括:
[0199]
首先,计算当前位置视觉图像序列各可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性π
t

[0200][0201]
其中,表示当前位置视觉图像序列中可导航方向的图像的视觉特征,s
t
表示当前位置视觉图像序列中可导航方向的图像的视觉环境状态特征;
[0202]
然后,根据相关性π
t
预测当前位置的导航动作a
t

[0203]at
=argmaxmπ
t,m
[0204]
其中,π
t,m
表示π
t
序列中第m个方向的相关性。
[0205]
上述的可导航方向,可以是所有的观测方向,但为了缩小探索空间,提高训练效率,在实施例的训练过程中,设置可导航方向标签进行标注,也即所述导航轨迹数据,还包括导航轨迹各位置处的可导航方向标签,在训练时的上述步骤中,仅将具有可导航方向标签的方向作为可导航方向;而在实际执行室内视觉导航任务的陌生环境中,则将所有观测方向作为可导航方向。具体的说,在位置t各观测方向获得的视觉图像序列为v
t
={v1,v2,

vi,

,vn},可导航方向标签对应一个取值范围为0或1的掩码向量mask
t
={0,1,

1,

,0},其中,赋值1表示可导航,此时,可导航方向的图像为o
t
={v2,...,vi,

}。而在实际执行室内视觉导航任务时,对于陌生的环境,掩码向量可全置为1,即mask
t
={1,1,

1,

,1}。
[0206]
s26、迭代训练
[0207]
由于导航是by step的形式,仅完成当前步的动作预测,并不能说明其已经完成本轮导航实例任务。因此,本步骤中,首先,判定是否到达输入导航轨迹数据的终点,若是,则构建迭代输入并返回迭代,否则,进行损失计算并更新参数。
[0208]
其中,构建迭代输入并返回迭代为:根据步骤s24获得的当前位置的视觉环境状态特征,以及步骤s25预测的当前位置的导航动作,更新历史状态特征;从导航轨迹数据中,提取导航轨迹下一位置的视觉图像序列,并将该视觉图像序列以及更新后的历史状态特征作为输入,返回步骤s23。
[0209]
进一步的讲,历史状态特征表征已完成导航过程的历史信息,其更新,也即将当前步的信息和当前步之前的历史信息进行融合,因此,可以采用门控网络,对当前位置的视觉环境状态特征和导航动作同当前位置的历史状态特征进行融合。
[0210]
本实施例中,如图4所示,具体包括:
[0211]
首先,通过重置门,筛选当前位置的视觉环境状态特征s
t
和预测的当前位置的导航动作a
t
的关键特征,并将其融合到当前位置的上一时刻的历史状态特征h
t-1

[0212]rt
=σ(w
rht-1
+ur[s
t

t
,a
t
])
[0213][0214]
其中,π
t
表示当前位置视觉图像序列各可导航方向图像的视觉特征与其对应视觉环境状态特征之间的相关性,r
t
表示遗忘门权重,wr、ur、wg和ug均为可训练参数,σ(
·
)和tanh(
·
)表示激活函数,

表示哈达曼积运算,t表示当前位置,t-1表示当前位置的上一位置;
[0215]
然后,通过更新门,筛选需保留的有效历史信息zr,并将其融合到当前位置的上一时刻的历史状态特征h
t-1
,对历史状态特征进行更新:
[0216]zt
=σ(w
zht-1
+uz[s
t

t
,a
t
])
[0217][0218]
其中,z
t
表示更新门权重,wz和uz均为可训练参数。
[0219]
上述损失计算并更新参数,则按完成本轮导航实例任务的累计损失进行训练。
[0220]
在本实施例中,训练方式包括两部分:即强化学习训练和模仿学习训练。
[0221]
1)强化学习训练:室内视觉导航方法,将环境反馈的累积奖励作为监督信号,并使用该信号训练导航模型参数,通过强化学习训练方式,引导模型输出高潜在奖励收益的动作,可以促进模型尽可能预测到任务相关的正确导航轨迹。
[0222]
2)模仿学习训练:
[0223]
室内视觉导航模型训练依赖于有效的反馈奖励,而环境复杂且庞大的状态空间导致模型通常难以探索到正确的正奖励轨迹,增加训练难度。因此,通过模仿学习训练引导模型预测专家动作,尽可能探索到和专家数据相似的正奖励轨迹,以快速学习到导航先验知识。
[0224]
具体的讲,累计损失按如下损失函数计算:
[0225]
l=w1l
il
+w2l
rl
[0226]
其中,w1和w2均为可训练参数,l
il
表示模仿学习产生的损失,l
rl
表示强化学习产生的损失,所述强化学习采用执行者评论者框架,其中执行者网络为室内视觉导航模型,评论者网络为前馈神经网络;
[0227]
其中,l
il
和l
rl
分别按如下公式计算:
[0228][0229]
[0230]
其中,a
t
表示t时刻位置的预测的导航动作,表示t时刻位置的预设的专家导航动作,π
t
表示t时刻位置视觉图像序列视觉特征与其对应视觉环境状态特征之间的相关性,g
t
表示t时刻位置执行者网络的累计收益,td
t
为t时刻位置评论者网络的输出并如下公式计算:
[0231]
td
t
=max(0,π
twtd1
)w
td2
[0232]
强化学习方式中,导航模型每一时刻会从环境中获得反馈收益r
t
,反馈收益用于衡量导航效果,可依据实际环境自行定义。在实施例中,上述的执行者网络的累计收益g
t
,按如下公式计算:
[0233][0234][0235]
其中,p
cur
表示t时刻位置的预测的导航动作所对应的下一时刻的位置,p
goal
表示t时刻专家导航动作所对应的下一时刻的位置,dis(
·
)表示欧式距离,γ
t
表示t时刻的衰减因子。
[0236]
在完成损失函数计算后,根据训练损失,对模型参数进行反向传播更新,模型参数包括提取视觉特征的残差神经网络参数、进行位置编码的预训练bert模型参数、两个注意力计算中的各个多层感知机网络的参数、更新历史状态特征的门控网络的参数、计算视觉环境状态特征的前馈神经网络参数以及评论者网络的前馈神经网络参数。
[0237]
在完成参数更新后,则判定是否完成训练,若是,则结束训练,获得训练好的室内视觉导航模型;否则,重复步骤s21-s26进行迭代训练,直至满足训练终止条件。训练终止条件,包括模型收敛或者达到设定的最大训练迭代数,若达到设定的最大训练迭代数,而模型仍未收敛,则应重新进行训练。
[0238]
在获得完成训练的模型后,即可将该模型用于实际应用,具体的讲,包括:
[0239]
步骤一、观测当前位置的各个观测方向,获得当前位置的视觉图像序列,根据训练完成的室内视觉导航模型以及聚类中心,预测当前位置的导航动作;
[0240]
步骤二、根据当前位置的导航动作确定导航的下一位置,判定是否到达终点或者是否达到预设的最大导航步数,若是,则结束导航,否则,将当前位置导航动作确定的下一位置作为输入并返回步骤一。
[0241]
针对达到预设的最大导航步数的情况,可以将结束导航时的位置作为新的起点进行导航;或者,对模型进行重新训练后,再次进行导航。
[0242]
尽管这里参照本发明的实施例对本发明进行了描述,上述实施例仅为本发明较佳的实施方式,本发明的实施方式并不受上述实施例的限制,应该理解,本领域技术人员可以设计出很多其他的修改和实施方式,这些修改和实施方式将落在本技术公开的原则范围和精神之内。

技术特征:


1.一种基于因果注意力的室内视觉导航方法,其特征在于,包括以下步骤:a、数据准备获取室内视觉图像数据集,所述室内视觉图像数据集包括一组导航轨迹数据,各导航轨迹数据分别包括由位置序列构成的导航轨迹以及导航轨迹上各位置处的视觉图像序列,各视觉图像序列分别包括在对应位置处各个观测方向的图像;并基于导航轨迹数据,构建到达终点前导航轨迹各位置处的导航方向对应图像所构成的导航图像序列,所述导航方向对应图像为从对应位置的视觉图像序列中,按对应位置到达导航轨迹下一位置的方向所确定的图像;然后,对所有导航轨迹数据的导航图像序列,进行视觉特征提取并聚类,获得聚类中心;b、通过室内视觉导航模型执行室内视觉导航任务:b1、以导航起点位置作为初始的当前位置,并随机初始化历史状态特征;b2、观测当前位置的各个观测方向,获得当前位置的视觉图像序列,提取当前位置视觉图像序列中各图像的视觉特征,并编码获得各观测方向的位置特征,并根据各图像的视觉特征与各聚类中心的距离,获得各图像的全局特征;b3、将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征;融合各图像的视觉图像特征及其位置特征,并通过自注意力机制,计算当前位置视觉图像序列各图像的自注意力特征;融合各图像的视觉图像特征和位置特征,构建查询向量;根据各图像的全局特征,构建键向量和值向量,然后,基于构建的查询向量、键向量和值向量,通过因果注意力机制,计算当前位置视觉图像序列各图像的因果注意力特征;然后,融合各图像的自注意力特征及其因果注意力特征,获得当前位置视觉图像序列各图像的视觉环境状态特征;b4、根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,根据相关性预测当前位置的导航动作;b5、根据当前位置的导航动作确定导航的下一位置,判定是否到达终点或者是否达到预设的最大导航步数,若是,则结束导航,否则,执行步骤b6;b6、根据步骤b3获得的当前位置的视觉环境状态特征,以及步骤b4预测的当前位置的导航动作,更新历史状态特征;将当前位置导航动作确定的下一位置以及更新后的历史状态特征作为输入,返回步骤b2。2.如权利要求1所述的一种基于因果注意力的室内视觉导航方法,其特征在于,按如下步骤训练室内视觉导航模型:c1、以室内视觉图像数据集作为训练数据集并计算获得聚类中心;c2、从训练数据集提取一条导航轨迹数据,将其全部或部分作为本轮训练的导航轨迹数据;c3、从输入的导航轨迹数据中,提取其起点的视觉图像序列,作为初始输入的视觉图像序列,并随机初始化历史状态特征;c4、以输入视觉图像序列对应位置作为当前位置,提取当前位置视觉图像序列中各图像的视觉特征,并编码获得各观测方向的位置特征,并根据各图像的视觉特征与各聚类中
心的距离,获得各图像的全局特征;c5、将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征;然后,计算当前位置的自注意力特征和因果注意力特征,并融合自注意力特征及其因果注意力特征,获得视觉环境状态特征;c6、根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,根据相关性预测当前位置的导航动作;c7、判定是否到达输入导航轨迹数据的终点,若是,则执行步骤c9,否则执行步骤c8;c8、根据步骤c5获得的当前位置的视觉环境状态特征,以及步骤c6预测的当前位置的导航动作,更新历史状态特征;从导航轨迹数据中,提取导航轨迹下一位置的视觉图像序列,并将该视觉图像序列以及更新后的历史状态特征作为输入,返回步骤c4;c9、根据各位置处预设的专家导航动作和预测的导航动作,计算其损失,并根据累计损失对室内视觉导航模型的参数进行更新;c10、重复步骤c2-c9进行迭代训练,直至满足训练终止条件,获得训练好的室内视觉导航模型。3.如权利要求2所述的一种基于因果注意力的室内视觉导航方法,其特征在于,在步骤b中,初始时,采用训练时获得的聚类中心,并将训练时室内视觉图像数据集的导航轨迹数据作为初始的历史导航轨迹数据;在执行室内视觉导航任务后,收集已实际完成的导航任务的导航轨迹数据,在收集达到设定数量后,根据收集到的导航轨迹数据对历史导航轨迹数据进行更新,并基于更新后的历史导航轨迹数据对聚类中心进行更新。4.如权利要求2所述的一种基于因果注意力的室内视觉导航方法,其特征在于,步骤c9中,累计损失按如下损失函数计算:l=w1l
il
+w2l
rl
其中,w1和w2均为可训练参数,l
il
表示模仿学习产生的损失,l
rl
表示强化学习产生的损失,所述强化学习采用执行者评论者框架,其中执行者网络为室内视觉导航模型,评论者网络为前馈神经网络;其中,l
il
和l
rl
分别按如下公式计算:分别按如下公式计算:其中,a
t
表示t时刻位置的预测的导航动作,表示t时刻位置的预设的专家导航动作,π
t
表示t时刻位置视觉图像序列视觉特征与其对应视觉环境状态特征之间的相关性,g
t
表示t时刻位置执行者网络的累计收益,td
t
为t时刻位置评论者网络的输出并如下公式计算:td
t
=max(0,π
t
w
td1
)w
td2
其中,w
td1
和w
td2
为可训练参数。5.如权利要求4所述的一种基于因果注意力的室内视觉导航方法,其特征在于,按如下公式,计算执行者网络的累计收益g
t

其中,p
cur
表示t时刻位置的预测的导航动作所对应的下一时刻的位置,p
goal
表示t时刻专家导航动作所对应的下一时刻的位置,dis(
·
)表示欧式距离,γ
t
表示t时刻的衰减因子。6.如权利要求1、2或3任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,聚类中心的计算,包括:d1、提取各导航轨迹数据的导航图像序列中各图像的视觉特征,并将提取获得的所有视觉特征构成全局视觉特征数据集;d2、设定k个聚类中心并初始化;d3、根据全局视觉特征数据集,分别计算其中各视觉特征与各聚类中心的欧式距离;d4、基于各视觉特征与各聚类中心的最小距离,对各视觉特征进行分类;d5、按如下公式对聚类中心的值进行更新:其中,g
k
表示第k个聚类中心的值,c
k
表示第k个聚类中心所包含视觉特征的集合;d6、重复上述步骤d3~d5,对聚类中心的值进行迭代更新,直至所有聚类中心值的变化小于预设阈值或超过预设迭代轮次。7.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,根据当前位置视觉图像序列中各图像的视觉特征与各聚类中心的距离,获得全局特征于,根据当前位置视觉图像序列中各图像的视觉特征与各聚类中心的距离,获得全局特征其中,表示第i个观测方向的图像的全局特征,n为观测方向的数量,并按如下步骤计算:分别计算第i个观测方向的图像的视觉特征与k个聚类中心的距离,并取其与k个聚类中心距离的均值,作为其全局特征8.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,将历史状态特征分别融入当前位置视觉图像序列中各图像的视觉特征,获得其各图像的视觉图像特征,包括:首先,将视觉特征f
t
={f1,f2,

f
i
,

,f
n
}分别进行全局平均池化;然后,采用向量拼接的形式,将历史状态特征h
t-1
分别融入全局平均池化后的各个视觉特征,获得各图像的视觉图像特征c
t
={c1,c2,

c
i
,

,c
n
},其中,t表示当前位置,t-1表示当前位置的上一位置。9.如权利要1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,位置特征采用预训练bert模型进行绝对位置编码。10.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,各步骤中,均采用残差神经网络提取图像的视觉特征。
11.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,融合各图像的视觉图像特征及其位置特征,并通过自注意力机制,计算当前位置视觉图像序列各图像的自注意力特征,包括:首先,通过拼接的方式融合视觉图像特征及其位置特征,然后,通过不同参数的多层感知机网络,将融合获得的特征转换为查询向量q
s
、键向量k
s
和值向量v
s
:q
s
=max(0,(c
t
+pe
t
)w
qs
+b
qs
)k
s
=max(0,(c
t
+pe
t
)w
ks
+b
ks
)v
s
=max(0,(c
t
+pe
t
)w
vs
+b
vs
)其中,c
t
表示当前位置的视觉图像特征,pe
t
表示当前位置的位置特征,w
qs
、b
qs
、w
ks
、b
ks
、w
vs
以及b
vs
均为多层感知机网络的参数;然后,计算注意力权重a
s
:其中,dim为多层感知机网络的维度,t表示矩阵转置;最后,通过注意力权重和值向量,计算获得自注意力特征:sa
t
=softmax(a
svs
)其中,sa
t
表示当前位置的自注意力特征。12.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,融合各图像的视觉图像特征和位置特征,构建查询向量;根据各图像的全局特征,构建键向量和值向量,然后,基于构建的查询向量、键向量和值向量,通过因果注意力机制,计算当前位置视觉图像序列各图像的因果注意力特征,包括:首先,通过拼接的方式融合视觉图像特征及其位置特征,然后,通过多层感知机网络,将融合获得的特征转换为查询向量q
c
:q
c
=max(0,(c
t
+pe
t
)w
qc
+b
qc
)并通过不同参数的多层感知机网络,将当前位置对应的视觉图像序列的全局特征,转换为键向量k
c
和值向量v
c
::其中,c
t
表示当前位置的视觉图像特征,pe
t
表示当前位置的位置特征,表示全局特征,w
qc
、b
qc
、w
kc
、b
kc
、w
vc
以及b
vc
均为多层感知机网络的参数;然后,计算注意力权重a
c
:其中,dim为多层感知机网络的维度,t表示矩阵转置;最后,通过注意力权重和值向量,计算获得因果注意力特征:ca
t
=softmax(a
cvc
)其中,ca
t
表示当前位置的因果注意力特征。13.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征
在于,融合各图像的自注意力特征及其因果注意力特征,获得当前位置视觉图像序列各图像的视觉环境状态特征,包括:首先,通过向量拼接的方式,融合自注意力特征sa
t
和因果注意力特征ca
t
,获得融合特征[sa
t
,ca
t
];然后,采用前馈神经网络,将融合特征[sa
t
,ca
t
],转换为视觉环境状态特征s
t
:s
t
=max(0,[sa
t
,ca
t
]w
ffn1
+b
ffn1
)w
ffn2
+b
ffn2
其中,均为前馈神经网络的参数,dim为注意力计算中构建查询向量、键向量和值向量的编码网络的维度,n为观测方向的数量。14.如权利要求2所述的一种基于因果注意力的室内视觉导航方法,其特征在于,所述导航轨迹数据,还包括导航轨迹各位置处的可导航方向标签,在步骤c6中,仅将具有可导航方向标签的方向作为可导航方向;在步骤b4中,将所有观测方向作为可导航方向。15.如权利要求1、2或14任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,根据预设的可导航方向,计算当前位置视觉图像序列中可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性,根据相关性预测当前位置的导航动作,包括:首先,计算当前位置视觉图像序列各可导航方向的图像的视觉特征与其对应视觉环境状态特征之间的相关性π
t
:其中,表示当前位置视觉图像序列中可导航方向的图像的视觉特征,s
t
表示当前位置视觉图像序列中可导航方向的图像的视觉环境状态特征;然后,根据相关性π
t
预测当前位置的导航动作a
t
:a
t
=argmax
m
π
t,m
其中,π
t,m
表示π
t
序列中第m个方向的相关性。16.如权利要求1或2任一项所述的一种基于因果注意力的室内视觉导航方法,其特征在于,根据当前位置的视觉环境状态特征,以及预测的当前位置的导航动作,更新历史状态特征,包括:首先,通过重置门,筛选当前位置的视觉环境状态特征s
t
和预测的当前位置的导航动作a
t
的关键特征,并将其融合到当前位置的上一时刻的历史状态特征h
t-1
:r
t
=σ(w
r
h
t-1
+u
r
[s
t

t
,a
t
])其中,π
t
表示当前位置视觉图像序列各可导航方向图像的视觉特征与其对应视觉环境状态特征之间的相关性,r
t
表示遗忘门权重,w
r
、u
r
、w
g
和u
g
均为可训练参数,σ(
·
)和tanh(
·
)表示激活函数,

表示哈达曼积运算,t表示当前位置,t-1表示当前位置的上一位置;然后,通过更新门,筛选需保留的有效历史信息z
t
,并将其融合到当前位置的上一时刻的历史状态特征h
t-1
,对历史状态特征进行更新:z
t
=σ(w
z
h
t-1
+u
z
[s
t

t
,a
t
])
其中,z
t
表示更新门权重,w
z
和u
z
均为可训练参数。

技术总结


本发明涉及视觉导航技术,其公开了一种基于因果注意力的室内视觉导航方法,解决传统室内视觉导航方案存在的过度关注特征间虚假相关性,降低模型泛化能力的问题。该方法包括:对历史导航轨迹各位置处的导航方向图像进行聚类,计算聚类中心;接着,提取当前位置各观测方向的视觉特征、位置特征以及表征同各聚类中心距离的全局特征,并融合当前的历史状态特征,基于自注意力机制和因果注意力机制,计算获取视觉环境状态特征;然后,根据各方向视觉特征与视觉环境状态特征的相关性,预测当前位置导航动作,并根据预测导航动作和视觉环境状态特征更新历史状态特征,直至完成导航任务。直至完成导航任务。直至完成导航任务。


技术研发人员:

罗光春 朱大勇 戴瑞婷 董强 张清扬 张晨曦

受保护的技术使用者:

电子科技大学

技术研发日:

2022.10.18

技术公布日:

2022/12/23

本文发布于:2024-09-20 21:34:52,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/2/46403.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:特征   视觉   图像   当前位置
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议