基于HMM和SVM级联算法的驾驶意图识别

2018年(第40卷)第7期
汽车工程
Automotive Engineering2018(V〇1.40)N〇.7
doi:10.1956^^j.chinasae.qcgc.2018.07.017
基于HMM和SVM级联算法的驾驶意图识别*
刘志强,吴雪刚,倪捷,张腾
(江苏大学汽车与交通工程学院,镇江212013)
[摘要]为降低先进驾驶员辅助系统的误警率,提出了利用不同任务下“人车路”参数的差异性识别驾驶意 图的方法。在模拟驾驶仪系统中开展实验,记录了 12名受试者的驾驶样本1 150组,对比车道保持意图、换道意图和超车意图样本的差异,确定了6个参数的驾驶意图识别指标体系。运用H M M和S V M级联算法建立驾驶员驾驶 意图识别模型。结果表明:基于该算法的识别准确率达95.84%,明显高于H M M或S V M单一算法,且单次平均识别 时间为0.017S,满足驾驶员对突发性事件反应时间的要求。
关键词:智能交通;意图识别;隐马尔可夫模型;支持向量机;T检验
D r i v i n g I n t e n t i o n R e c o g n i t i o n B a s e d o n H M M a n d S V M C a s c a d e A l g o r i t h m
Liu Zhiqiang,W u Xuegang,Ni Jie &Zhang Teng
S c h o o l of A u to m o tiv e a n d T r a ffic E n g in e e r in g,J ia n g s u U n iv e r s ity,Z h e n jia n g212013
[Abstract]In order t o reduce the false alarm rate o l the advanced driver assistance system,a method lor i­dentifying driving intention i s proposed by using the difference o l “driver-vehicle-road”parameters under different tasks.Experiments are carried out in driving simulator system, 1150 driving samples o f 12 testees are recorded,and a driving intention recognition indicator system with6 parameters are determined by comparing the sample difference o f different driving intentions:lane keeping,lane change and overtaking.Using H M M and S V M cascade algorithm t o establish driving intention recognition model.The results show that the correct recognition rate o f driving intentions based on the algorithm reaches95. 84%,obviously higher than that using H M M or S V M model alone,with an aver­age single recognition time o f 0.017s,meeting the requirements o f reaction time o f driver t o emergency events.
Keywords:intelligent transportation;intention recognition;hidden Markov model;support vector m a­chine;T-test
刖言
随着我国道路运输行业的快速发展和机动车保 有量的急剧增长,交通安全事故频发导致财产损失 和人员伤亡给人们的生产生活带来了严重影响[|]。先进的驾驶员辅助系统能够显著提高驾驶员行车安 全性,然而这些系统有些未考虑对驾驶员行为意图 和特性的辨识以实现辅助系统对驾驶员的自适应和 驾驶员个性化驾驶[2],导致辅助系统的激活与驾驶员意图相悻,给驾驶员造成心理压力,降低了驾驶员 对辅助系统的认同感。因此,在驾驶员辅助系统进 一步开发中开展驾驶员意图识别研究具有实际应用 价值。
研究表明,驾驶员的驾驶意图是一个多维结构,单一的特征指标并不能满足驾驶意图的判断[3]。国内外针对驾驶员驾驶意图识别研究中其参数的选择 绝大部分是基于单独的自车运动状态或车路系统 建立单一学习模型[4-6]。部分研究人员建立了多学 习模型辨识驾驶意图,但此类研究也仅考虑在车道
*国家自然科学基金(61403172)和道路交通安全公安部重点实验室(2016ZDSYSKFKT09)资助。原稿收到日期为2017年6月5日,修改稿收到日期为2017年8月16日。
通信作者:刘志强,教授,博士,E-mail:Zhqliu@ujs.edu 。
2018(V〇1.40)N〇.7刘志强,等:基于HMM和SVM级联算法的驾驶意图识别• 859 •
保持和车道变换阶段驾驶员的生理或心理参数的变 化「7—91。实际的驾驶过程是一个由人车路组成的复杂的交通系统「10-11],单一的识别模型导致驾驶意 图误警率高。
隐马尔可夫算法能够分析时间序列的动态信 号,根据相邻状态间的关系完成模式识别,更大程度 反映类别间的相似性而类别的差异性则被忽略。支 持向量机算法通过将低维空间线性不可分的样本映 射至高维空间中,以尽可能大的欧氏距离将相似的 样本分隔开,更大程度地反映了类别间的差异性。据此,本文中提出了一种基于H M M和S V M级联算 法考虑人车路特征参数的驾驶员意图识别方法,将隐马尔可夫动态建模能力和支持向量机模式分类 能力结合,同时发挥两种分类器的优势,提高整个双 层算法对驾驶意图的识别能力。
1实验方案
1.1实验平台
考虑到在模拟驾驶仪中开展仿真实验,可根据 实验要求随意修改车辆和道路环境的参数配置,准 确采集车辆多种动态参数的同时不担心因操作不当 而引发危险事故,有效降低实验采集过程中驾驶员 的心理负担。选用6自由度S C A N E R II驾驶模拟器 和Smart-e y e s眼动仪作为主要实验设备,如图1所示。
图1模拟驾驶仪与眼动仪系统
1.2实验场景设计
按照实验要求,在驾驶模拟器视景系统中设计 双向六车道,车道宽3.5m,总长度约90k m的高速公 路场景。同时,为使行车环境与实际过程一致,在道 路上设置适宜车流量。其中主要设置两类辅助车 辆,当自车行驶至与所设置的辅助车辆距离500m 时,辅助车辆被自动激活。第一类辅助车辆平均车速设置为60k m/h,车速变化遵循方差为20k m/h的高斯分布;第二类辅助车辆的平均车速为90k m/h,其车速变化遵循方差为30k m/h的高斯分布。
1.3实验人员
以自愿方式招募8男4女共12名驾驶员作为 受试对象。受试者满足以下条件:持有驾驶证、视力 良好、性格稳定、无不良驾驶记录。为便于实验有序 开展和有效提高后期样本筛选的效率,实验配备1名记录员,其主要工作是观察驾驶员的状态,并记录 驾驶员不同任务下的操作时刻。
1.4实验过程
本文中规定,处于驾驶模拟器环境中的驾驶员 主要有4类驾驶意图:车道跟驰(C F),左变道(L C L),右变道(L C R)和超车(O T)。实验中,驾驶 模拟器主控机相应的模块会同步采集车辆纵向加速
边沟滑模施工
度、转向盘转角、车辆与车道线距离、制动踏板行程、加速踏板行程等运行状态参数,同时米用Smart-eyes 眼动仪系统追踪驾驶员的眼睛和头部运动。
2样本筛选
若能提早1s察觉到事故危险并采取相应正确 措施,很多交通事故都可以避免「12]。图2为某次换 道过程的车辆运行轨迹,其中P点为车辆行驶轨迹 和车道线交点,以往的多数研究通常对P点前某时 窗内信息进行研究,希望在车辆越过车道线1s前就 能辨识出换道意图,考虑到国内外的研究较为普遍 地将时间窗口取为3s左右「131,故选取p点前1s外 时间窗口 r内的信息作为研究对象,即截取<7点前 3s内的特征量数据,同样随机截取3s内车道保持阶 段的特征量数据。
结合研究需求共筛选了 1 150组样本,其中C F 样本285组,L C R样本285组,L C L样本290组和 O T样本290组。为提高模型的分类准确率和确保 有效检验效果,用于模型训练和模型验证的样本大 致按照2 : 1
的原则分配。
• 860 •
绝对值角度编码器汽车工程
2018年(第40卷)第7期
图4不同驾驶意图下驾驶员视觉参数箱型图
3.2车-路参数
行驶过程中,模拟驾驶器C A N 系统可读取出车 辆各类典型的运行参数信息。纵向加速度反映驾驶 员对后续车速的预期值。转向盘转角作为实现变道 意图的直接输入,驾驶员在各意图阶段均需不断调
整转向盘以保证车辆安全行驶。车辆与车道中心线 距离作为自车相对于车道的位置变化,反映了驾驶 员对车辆横向位置的掌控能力,上述“车路”参数 能较好表征驾驶员的驾驶意图,变化规律统计见 图5。
3
驾驶意图特征参数选取
对筛选样本中所涉及的参数数据进行对比分 析,排除部分差异性较小的参数。经独立样本T 检 验(显著性差异a  = 0. 05)后,结合指标参量选择时 应遵循易量化、全面性和相互独立性的原则确定驾 驶员特征参数。3.1驾驶员参数
视觉扫描是驾驶员搜索外界信息的主要途径, 在驾驶过程中驾驶员获取的道路环境信息有90%以 上来自视觉[14]。
对Smart-eyes 眼动仪系统米集的多次全过程驾 驶中驾驶员视线点区域进行K-means 聚类划分,见
药用复合膜图3,而后在确定各区域范围的基础上统计筛选驾
驶员面对不同任务时的典型视觉特征变化规律,见 图4,其中图4(a )中当驾驶员处于右变道(L C R )意
图时,可认为对左侧后视镜注视次数为零。
-80 -60 -40 -20 0 20 40 60
图3驾驶员兴趣区域划分结果
驾驶意图
驾驶意图
驾驶意图
(a )不同驾驶意图的转向盘转角标准差 (b )不同驾驶意图的纵向加速度标准差 ⑷不同驾驶意图的车辆与车道中心线的标准差
图5不同驾驶意图下“车路”参数箱型图
结合图4和图5中参数差异性的分析,最终确定 均头部水平转角、转向盘转角、纵向加速度和自车与车以左后视镜平均注视次数、单次平均扫视时间、单次平
道中心线距离共6个参数作为意图识别算法指标量。
5 0 5 0
3 2 2 1 1s o /*繫遐被靼激
C
o
o  o  o  o
5 4 3 2 1o o o o o o o
手写触摸屏
8 6 4 2 o  8 61 1± 1 1± I 截
名瘁坩II 尾鸣孽
W
2018(V〇1.40)N〇.7刘志强,等:基于HMM和SVM级联算法的驾驶意图识别• 861 •
4H M M和S V M级联算法识别驾驶意图基本方法
传统上H M M算法的输出完全作为S V M的输人 建立H M M-S V M混合模型开展模式识别的分类负担 较大,计算时间较长且并未充分发挥二者的优势,本 文中所建立改进的H M M和S V M级联算法如图6所 示。将待辨识驾驶意图对应的指标参数样本导人第 一层H M M中确定其能识别的意图。将第一层H M M中识别率较低的易混淆的意图作为与待辨识 意图较为相似的类别,形成候选集,再由第二层S V M 在候选模式中对待辨识意图作最后决策,以期达到 提高驾驶员驾驶意图识别率的目的。
图6 H M M和S V M级联算法识别驾驶意图流程
4.1隐马尔可夫算法(H M M)
隐马尔可夫模型作为一个双随机过程,由两部 分组成:马尔可夫链和一般随机过程。前者采用转 移概率描述状态的转移,后者采用观察值概率描述 状态和观察序列间的关系[15]。一个H M M模型可以 用0 = [P。,4 ,B]来描述,将其用于驾驶意图识别,关 键问题是解决H M M模型的训练和识别问题。
2=(认,02,03,04)表示4种隐藏的驾驶意图; V= (V,,v2,v3,v4,v5,v6)表示可观察的驾驶行为序 列;4= [a s.]表示从意图认到意图的转移矩阵; B=[&]表示从意图仏产生驾驶行为 '的产生矩阵。
图7为基于隐马尔可夫模型的驾驶意图辨识原 理,采用前向后向算法对给定训练数据后获得的隐 马尔可夫模型参数进行优化。由于初始概率条件P。和驾驶意图转移矩阵4的初始值的选择对系统 的影响不大,对比实验效果后,确定米用4状态6高斯过程H M M模型。假定均勻选取初始状态概率尸。和4的初值,采用K-m e a n s聚类求解B的初始值。
图7基于H M M算法的意图识别基本原理
前向后向算法获得H M M参数0的重估公式为
p〇=p(^(i))=a(i)y s/i)/p(v I e)(i)
在产生换道行为序列V条件下,从驾驶行为 认(卜1)转移到仏⑴的概率Y.为
Y.=p(认(卜1)40(0Iv,e)=
a( t-1) aljb l f i](t)/P(V I6)(2) ^ = h(t)/i兔 y(3) t=1t=1
j=1
'b jk=H Y j(tV H7ij(t)(4) t=1
l t=1l
V t=vk
式中l为长为r的驾驶意图序列的标记。根据新旧 隐马尔可夫模型参数间的函数关系反复迭代计算a y.和b> ,至其收敛为止。最终获得驾驶行为产生矩阵^= [b jk]。
驾驶意图识别时,采用viterbi算法求出模型参 数A对输出驾驶行为序列V的输出概率P(V I6i), 然后选择所有模型中的输出概率最大的作为未知意 图的识别结果,即
立云购物商城6k=arg m a x P(V I6l)(5)
P(v I6i) = X P(v I Qn,6i)P(Qn\6i)(6)
n
4.2支持向量机(S V M)
S V M作为一种基于结构风险最小化原则的学 习理论,通过在高维空间寻一个超平面作为两类 的分隔,以保证最小的分类错误率[16],以解决小样 本、非线性和二分类的模式识别问题。用S V M实现 驾驶意图分类,首先要将原始空间中线性不可分驾 驶意图参数通过式(7)的R B F函数映射到高维
空间:
• 862 •汽车工程2018年(第40卷)第7期R(vt,V])= exp(- |vt-v] |/2a2)(7)
将求解最优分类面转化为求解驾驶意图的最优
模具计数器
决策函数:
n
f(v) = sgn[^a*ytK(vt,v)+ b](8)
i=1
通过式(9)获得a*和b。
n1n n
m a x^a i ~ X X aiajJiyjK(vi,v j)
i=1  2 i=1j=1
n
^s.t.X a ji =〇;〇 矣a;矣C,i e[l,n](9)
i=1
n
b* = ^ -X e1/1a*> 〇l
将第一层&M M算法中n种易混淆驾驶意图两
两组合,构建c n个分类器。使用各易混淆驾驶意图
对应的训练集数据训练S V M分类模型。S V M通过
将低维空间中线性不可分的易混淆的驾驶意图样本
映射到可分的高维空间中,最大程度地表现各易混
淆意图间的差异性。
5模型训练与仿真分析
5.1样本降噪预处理的模型参数。
考虑到由于噪声和传感器自身性能的影响,会
导致部分车载传感器实验数据的关联性降低,为保
证驾驶意图模型识别精度,须对所采集的数据进行
卡尔曼滤波处理[17]。纵向加速度和转向盘转角滤
波处理如图8所示。
5.2 H M M模型训练结果
选择将数据筛选后的765组驾驶意图导人第一
层H M M模型中进行参数0的优化。利用4. 1节中
所述H M M模型的前向后向算法,获得左变道意图
H M M的描述参数0^:
0LCL= [P〇^B]
其中尸。=[0.2 0.2 0.2 0.2 0.2]t
"0.2 0.2 -0.2"
0.2 0.2 …0.2
A=
• • • •
• • « •
0.2 0.2 …0.2 5x5
B=0.1191 0.4712 0.4320 0.0784 0.3871 0.3981 0.1311 0.5376 0.3245 0.0043 0.7213 0. 1982 0. 1562 0.0037 0. 1237 0.2345 0. 1542 0.3321 0. 1758 0.3219 0.6638 0.3481 0.1143 0.2293 0.0213
进而,可依此方法求解其余3类驾驶意图H M M 5.3 H M M仿真分析
将部分样本导人第一层H M M算法,似然估计 值越大,表明观察序列与该模型的匹配程度越高,最 大似然估计值所对应的模型便是利用H M M分类模 型得出的当前驾驶员驾驶意图,表1中加粗的数值 即为识别结果。
表1各驾驶行为样本H M M识别结果
模型CF LCL LCR OT
H M M H M M H M M H M M
CF-1-46.19-190.82-279.46-201.55
CF-2-57.53-188.23-204.85-114.56
LCL-1-132.62-59.66-193.27-62.46
LCL-2-191.63-71」6-230.99-96.73
LCR-1-194.78-226.71-65.71-127.66
LCR-2-272.15-159.56—SI.33-167.97
OT-1-189.72-96.81-198.43-78.09
OT-2-248.42-80.37-168.89-63.63
基于H M M模型对剩余的750组驾驶意图检验
样本的识别结果如表2
所示。

本文发布于:2024-09-24 15:16:29,感谢您对本站的认可!

本文链接:https://www.17tex.com/tex/4/154637.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:意图   驾驶   驾驶员
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议