基于支持向量机的故障诊断方法

基于支持向量机的故障诊断方法
郑媛媛1,杨鹏2,冀香雅1
1东北电力大学自动化工程学院,吉林吉林(132012)
2东北电力大学理学院,吉林吉林 (132012)
E-mail: zhgynyn@126
摘要:通过对支持向量机原理的分析,将凸壳理论用于基于支持向量机的故障诊断中,用凸壳顶点集来代替整个样本集来训练,运用实际数据进行仿真,仿真结果表明,本文方法在学习性能和推广性能方面与采用整个样本集基本相同,但降低了存储空间,提高了学习速度。关键词:支持向量机;故障诊断;凸壳
1.引言
在现代化生产中,生产过程的任何故障不仅直接影响产品的产量和质量,而且还可能造成严重的设备和人身事故。长期的生产实践使人们认识到,要使机组设备安全、可靠、有效地运行,充分发挥其效益,必须发展过程监测和故障诊断技术[1]。故障智能诊断技术代表了诊断技术的发展方向,其发展与人工智能技术的发展密切相关。
eaglelake回顾诊断技术的发展历程,专家系统在诊断技术中的应用,为故障诊断的智能化提供了可能性,使诊断技术进入了新的发展阶段。但专家系统只是依赖于经验知识库,却不能创新和发展。由于人工神经网络具有很强的自学习能力,因此人工神经网络理论成为计算机与人工智能、认知科学等相关专业的新的研究热点,并且在故障智能诊断领域得到了较多的应用。人工神经网络的算法基础是传统统计学,传统统计学所研究的主要是当样本趋向于无穷多时的统计性质。但在现实问题中,样本的数目通常是有限的,因此需要学习机器具有较强的推广能力,即对符合某规律,虽然没有学习过的样本也能给出合理的结论。但神经网络算法对于当样本数有限的问题,训练效果良好的一个算法结构却可能表现出很差的推广能力,即所谓的神经网络过学习问题。并且人工神经网络仅仅试图使风险最小化,并没有使期望风险最小化,因而造成了推广性方面较为严重的缺陷。近年来,人们认识到神经网络的学习算法缺乏定量的分析与机理完备的理论结果,从而使新的学习算法的研究成为机器学习的研究热点和关键问题。
统计学习理论为解决小样本学习问题提供了统一的框架[2]。统计学习理论致力于寻求小样本情况下学习问题的最优解,而不需要利用样本数趋于无穷大的渐进性条件,因此适合于故障诊断这种小样本情况的工程实际问题。我们使用最热门的机器学习理论SVM建立分类器,它是建立在统计学习理论的VC维理论和结构风险最小化原理上的,根据有限的样本信息,在模型的复杂性和学习能力之间寻求最佳折衷,以期获得最好的推理能力。它可以从理论上保证由少数训练样本得到的分类超平面式最优的,其泛化错误通常来说比其他方法要低很多。
2.支持向量机理论
支持向量机(support vector machine,SVM)[3]是vapnik于1995年首先提出来的,近年来受到了广泛的关注,它在分类问题上,尤其是针对小样本问题表现除了优异的性能。支持向量机是建立在计算学习理论的结构风险最小化原理之上的。其主要思想是针对两类分类问题,在高维空间中寻一个超平面作为两类分割,以保证最小的分类错误率,即统计学习理
论的结构风险最小化。
SVM 是一个现行分类面()(,)g x x b ω=+,((,)x ω是向量b 和x 的内积),使对于所有训练样本,有:||()1||g x >=,满足上述条件的||||ω最小的分类面为最优分类面。在线性可分的情况下,可以假设线性分类面的形式为:
()0g x x b ω=+=                              (1)
风险投资退出机制将判别函数归一化,使得两类所有样本都满足|()|1g x =,即
[()]10,0,1,2,,i y x b i n ω+−≥= L                        (2) 其中,1i y =±是样本的类别标记,是相应的样本。也就是使得离分类面最近的样本成立|()1|g x =,这样样本的分类间隔就等于12{,,,}n X x x x =L 。设计的目标就是要使得这个间隔值最小。由此可以定义Lagrange 函数:
1
1(,,)()([()]1)2n i i i L b y x b ωαωωαω==−+−∑                  (3) 其中0i α>为Lagrange 乘数,对ω和b 求偏微并令其为0,原问题转换成如下对偶问题: 在约束条件:          10,0,0,1,2,,n i
i i i y i n αα==≥=∑L                      (4)
下对求解下列函数的最大值:
1
,11()()2n n
i i j i j i j i i j Q y y x x αααα===−∑∑                    (5) 如果*
i α为最优解,那么: *
*1
n i i i i y x ωα==∑                              (6) 对于线性不可分的情况,可引入松弛因子,在求最优解的限制条件中加入对松弛因子的处罚函数。完整的支持向量机还包括通过核函数的非线性变化将输入空间变
换到一个高维空间,然后在高维空间中求取线性分类面。
常见的核函数包括多项式核函数、径向基函数、Sigmoid 函数等。最终判别函数只包括与支持向量的内积的求和,识别时计算复杂性只取决于支持向量的个数。
对于分类问题,并不是所有采集到的数据都是同等重要的,也就说有些数据携带的类别信息要多一些,甚至是起决定性的信息,有些却很少。这样就存在两个问题:哪些数据携带的类别信息较多;如何把这些重要数据提取出来。可以把样本数据集想象为某一样本空间中的点集,则样本数据中出现在越边缘的数据出现的概率越小,根据信息论,出现概率越小的样本所携带的信息量越大[4]。如果这个点集代表着某个类别,则点集的边缘点所携带的该类别的识别信息量越大,因此我们有理由认为点集的边缘点作为分类数据是可靠的。从这点出发,我们认为只要求出点集的边缘点,用这些边缘点作为支持向量机的输入数据求得的识别函数是可信的。下面通过对支持向量分类机的应用研究来印证这种思想。由于边缘点的数目往往是很少的,一般都大大少于样本总数。因此用边缘点来训练支持向量机,可大大的提高算法的速度样本点集的边缘点最典型就是它的凸壳的顶点,下面介绍凸壳相关的理论和算法。
3.凸壳相关理论
3.1 凸壳基本概念
凸壳问题不仅是实际应用的中心问题之一,而且也是求解计算几何中提出的许多问题的工具。对于凸壳问题尤其是其中的平面点集凸壳的计算已经有了广泛的研究和应用。在模式识别、图象处理、图形学和人工智能以及材料切割和分配等方面的许多实际问题都可以归纳成凸壳问题。从 20 世纪 60 年代开始,点集凸壳,尤其是关于平面点集凸壳的研究引起了有关学者们的广泛兴趣。
定义3-1 如果点集中任意两点间的连线段全部位于该点集中,则此点集称为凸的。凸集的形式定义如下:设S 是平面上的非空点集,1z 、2z 是S 中的任意两点,t 是 0 与 1 之间的任意实数,则点 12(1)(01)z tz t z t =+−<<;属于S ,称 S 是凸集[5]。
定义3-2 平面点集S 的凸壳是所有包含S 的集合中的最小凸集。如图1所示,表示一个有限点集的凸壳。点集S 的凸壳是S 中若干点的所有凸组合的集合。对于d 维中点集S ,S 的凸壳是S 的1d +(或更少)个点的凸组合的边界和,因此二维点集的凸壳至多是 3 个点的所有凸组合的情形。每个凸组合的集合确定了一个三角形,这样平面点集S 中的凸壳是由S 中的点确定的所有三角形的并的集合。
图1 凸壳的概念
点集S 的凸壳是包含S 的所有凸集的交,或者说凸壳S 是所有包含S 的半面的交。二维中的半空间是半平面,它是指位于一条直线上以及该线一侧的点的集合,这个概念可以推广到高维。集合的凸壳是封闭的并且包括内部的所有点的域,但在计算几何中,凸壳也可以被理解成为上述的域及其边界。
上述是凸壳的精确的数学定义,由定义可知,点集S 的凸壳是包含S 的最小凸集。若S 是由平面中的有限点集组成,则想象有一条大的拉紧的橡皮圈围绕着该集合,当此圈松开时,就会出现凸壳的形状,如图2 所示。
图2 凸壳如橡皮筋收缩的结果
定义 3-3 平面点集S 的凸壳边界是一个凸多边形,其顶点为S 中的点[7],且凸壳边界具有如下性质:
1.凸壳边界是包围S 的最小凸多边形P ,即不存在多边形'P ,使得'S P P ⊂⊂成立。
2.凸壳边界是具有最小面积并且封闭的凸多边形,或是具有最小周长且封闭的凸多边形[6]。
3.2  最小凸壳顶点集的计算(训练阶段)
胡莱足球本文的设计目标之一,就是希望能够提高测试速度,而凸线性组合方法对每个测试样本均要重新计算组合系数,显然不适合本问题。测试点的投影到凸壳的距离可通过投影到凸壳顶点的距离来计算,同时,凸壳的顶点集相对于样本的投影集是稀疏的,可以有效地节省存储空间,更为重要的是,寻凸壳顶点的工作完全可以在训练阶段完成。然而,常用计算凸壳顶点的算法存在如下问题:(1)局限于两维情况,无法推广到高维;(2)算法不能核化,无法推广到更高维的特征空间。本文提出的凸壳顶点的求解算法是直接针对超平面而设计的。
算法:计算超平面上凸壳顶点集
输入:投影集112{,,,}p p p n Pset φφφ=L ,投影平面11()0T x φφωγ−=;
1{1,2,,}PsetIndex n =L ;
输出:最小凸壳的顶点集Vset
算法步骤如下:
(1) 先计算距离最远的两点1x 和2x (可以证明此两点皆为凸壳顶点),
任取一点为定点(不妨取2x 为定点)。
过点2x (与下文对应,记为1V ) 且以12x x −为法线方向作一超平面(可以证明除2x 外,所有投影点均在此平面的同侧),在该平面与投影平面(两平面垂直)的交线上任取异于2x 的一点0x ,记02x x −为定方向;
(2) 计算除2x 外的所有投影点与2x 连线与定方向的夹角,选择夹角最小者对应的投影点(可通过内积表达),记为2V (也是凸壳顶点);
(3) 以21V V −为定方向,计算除1V 外的所有投影点与1V 连线与定方向的夹角,选择夹角最小者对应的投影点(可通过内积表达)为3V (凸点);
(4) 令12V V =,23V V =,重复步(3),直到初始定点2x 再次被选作凸壳顶点结束。
4.仿真研究
4.1基于凸壳理论的支持向量机的性能
下面用实例来分析二维数据的支持向量分类机的学习。
此实例的核函数为径向基函数,带宽参数1σ=;在输入空间中求凸壳顶点集。学习结果如图3所示,不同颜的点代表不同类别的样本点,学习后不同区代表不同的类别,中间的白线就是所谓的最优超平面,它把二类划分开,白圈圈住的点为支持向量。
图3(a)用所有点学习的结果管秩
图3(b)用顶点集学习的结果
根据图3,我们可以对比用所有样本数据和用凸壳顶点集数据的学习效果和学习性能。 表1列出用所有样本和用顶点集的支持向量机学习性能对比,SV 表示支持向量。
网上家长学校校信通表1学习性能 性能指标 用所有样本点 用顶点集
*2||||ω
83.265431 83.265431 几何间隔
0.201475 0.201475 SV 个数及占总学习
样本数的比例
3(11.1%) 3(20%) 学习时间 0.262 0.104
对支持向量分类机的训练就是出划分两类的最优超平面。对于规范化了样本数据,0b =,所以决定超平面的是ω,也就是*2||||ω。只要*2||||ω的值相同,就说明划分超平面
是相同的。观察上面两个实例的直观图像和性能指标,可发现支持向量分类机用顶点集学习的和用所
有样本点学习得到的超平面是一样的,但前者学习时间要比后者少。
2011年食品安全事件4.2 运用支持向量机进行故障诊断
生产过程中设备故障往往经历一个从产生到发展、从轻微到严重的渐变过程。故障产生后设备征兆参数的变化也要经历由不明显到明显、不完全到完全的时间过程。若能在故障刚刚萌芽、程度尚轻微时尽早地准确识别故障,则与常规故障较为严重时的诊断相比其意义更为明显,这就是轻微故障的诊断问题。若能在故障产生后的较短时间内,给出正确的诊断结果,为运行人员争取更多的故障处理时间和主动性,称之为早期故障诊断[7]。
以文献[8]的故障数据为仿真实验数据。对某汽轮机减速箱轴承运行状态进行监控,获取47组状态样本,通过维修人员检查,实验室放大镜检查,确定样本数据分别为故障、轻微故障及正常状态。样本数据为十维向量。
测试的方法是随机地从每一类中取出若干个样本作为学习集,支持向量分类机对这个学习集学习后,用所有的样本包含了学习集作为测试集。之所以采用所有的样本作测试集,是因为当采用松弛因子时允许支持向量分类机有错分,只有这样才能把学习时的错分样本也包含到学习效果评估中。在本次实验中对正常类和轻微故障类数据进行分析。在这里,求凸壳顶点和采用RBF核函数,也就是说这两个过程都在同一个特征空间中进行。由于样本是十维数据,不能直接观察到分类图像,所以只能用性能
数据来分析。
表2 利用故障数据SVC测试实验结果
性能指标用所有样本点用顶点集
*2
ω40.465723 40.465723
||||
几何间隔0.293874 0.293874
6(13.3%)6(13.3%)
SV个数及占总学
习样本数的比例
学习时间0.152 0.108
表2的四项指标是指示学习结果的。从学习结果来看,和上小节的分析是一样的。而从推广能力来看,用凸壳顶点集训练的的推广能力和用所有样本训练时是相等的。用这个凸壳顶点集来训练的结果与用所有样本点来训练的的结果是很接近的,而在学习时间上前者比后者少。
5.结论
通过对支持向量机原理的分析,将凸壳理论用于基于支持向量机的故障诊断中,用凸壳顶点集来代替整个样本集来训练,从而在不降低学习性能和推广性能的情况下,降低了的存储消耗,也提高了学习速度。

本文发布于:2024-09-22 03:39:23,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/569934.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:学习   样本   支持   向量   数据   顶点   问题   凸壳
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议