BP神经网络算法原理

BP神经网络算法原理
BP 网络模型处理信息的基本原理是:输入信号X i 通过中间节点(隐层点)作用于输出节点,经过非线形变换,产生输出信号Y k ,网络训练的每个样本包括输入向量X 和期望输出量t ,网络输出值Y 与期望输出值t 之间的偏差,通过调整输入节点与隐层节点的联接强度取值W ij 和隐层节点与输出节点之间的联接强度T jk 以及阈值,使误差沿梯度方向下降,经过反复学习训练,确定与最小误差相对应的网络参数(权值和阈值),训练即告停止。此时经过训练的神经网络即能对类似样本的输入信息,自行处理输出误差最小的经过非线形转换的信息。
一 BP 神经网络模型
BP 网络模型包括其输入输出模型、作用函数模型、误差计算模型和自学习模型。
(1)节点输出模型
隐节点输出模型:O j =f(∑W ij ×X i -q  j )    (1)
输出节点输出模型:Y k =f(∑T jk ×O j -q  k ) (2)
f-非线形作用函数;q -神经单元阈值。
(2)作用函数模型
作用函数是反映下层输入对上层节点刺激脉冲强度的函数又称刺激函数,一般取为(0,1)内连续取值Sigmoid 函
数:                        f(x)=1/(1+e -x )
(3)
(3)误差计算模型
误差计算模型是反映神经网络期望输出与计算输出之间误差大小的函数:                    E p =1/2×∑(t pi -O pi )2
(4)
t pi - i 节点的期望输出值;O pi -i 节点计算输出值。
(4)自学习模型
神经网络的学习过程,即连接下层节点和上层节点之间的权重拒阵W ij 的设定和
误差修正过程。BP 网络有师学习方式-需要设定期望值和无师学习方式-只需输入模式之分。自学习模型为
△W ij (n+1)= h
×Фi ×O j +a×△W ij (n) (5)
h -学习因子;Фi -输出节点i 的计算误差;O j -输出节点j 的计算输出;a-动量
因子。
二 BP 网络模型的缺陷分析及优化策略
(1)学习因子h 的优化
采用变步长法根据输出误差大小自动调整学习因子,来减少迭代次数和加快收敛速度。
h =h +a ×(E p (n)- E p (n-1))/ E p (n) a 为调整步长,0~1之间取值 (6)
(2)隐层节点数的优化
隐 节点数的多少对网络性能的影响较大,当隐节点数太多时,会导致网络学习时间过长,甚至不能收敛;而当隐节点数过小时,网络的容错能力差。利用逐步回归分析 法并进行参数的显著性检验来动态删除一些线形相关的隐节点,节点删除标准:当由该节点出发指向下一层节点的所有权值和阈值均
落于死区(通常取±0.1、±0.05等区间)之中,则该节点可删除。最佳隐节点数L可参考下面公式计算:
L=(m+n)1/2+c (7)
m-输入节点数;n-输出节点数;c-介于1~10的常数。
(3)输入和输出神经元的确定
利用多元回归分析法对神经网络的输入参数进行处理,删除相关性强的输入参数,来减少输入节点数。
(4)算法优化
由于BP算法采用的是剃度下降法,因而易陷于局部最小并且训练时间较长。用基于生物免疫机制地既能全局搜索又能避免未成熟收敛的免疫遗传算法IGA取代传统BP算法来克服此缺点。
该程序实现神经网络的BP算法,输入节点数,输出节点数,隐层数,隐层节点数任意,由用户决定。其中隐层数指的是总共曾数包含输出层,比如说异或算法为2层,第一层节点数为2,第二层也即输出层节点数为1,输入点数为2 。但是该程序对异或算法实现并不理想,对多层多节点的神经网络有较好的结果。#include "iostream.h"
板金#include <time.h>
#include <stdlib.h>中华民族根本利益所在是
#include<fstream>
昆德拉
#include <math.h>中国科技馆新馆影院
#include "stdio.h "
#define MAXCOUNT 1e5 //迭代训练次数上限
// 精度0.001的随机浮点数,范围在-0.5——0.5
float randf()
{电视剧大马帮
return (float)((rand() % 1001) * 0.001f-0.5);
}
//高斯随机数产生函数
double gaussrand()
{  static double V1, V2, S;
static int phase = 0;
double X;
if(phase == 0) {
do {
double U1 = (double)rand() / RAND_MAX;
double U2 = (double)rand() / RAND_MAX;
V1 = 2 * U1 - 1;
V2 = 2 * U2 - 1;
S = V1 * V1 + V2 * V2;
} while(S >= 1 || S == 0);
if(p==NULL)
delete [] pnode;
for(int M=0;M<Sidenum;M++)
{delete[] pnodey[M];
delete[] ddlj[M];
}
delete[] pnodey;
delete[] ddlj;
pnodey=NULL;
ddlj=NULL;
}
/
/完成所有权值的初始化
void getW(int sidenum,int inputnodenum,int outputnodenum1,int yangbenzu) {  Sidenum=sidenum;
yangbenzushu= yangbenzu;
Inputnodenum=inputnodenum;
outputnodenum=outputnodenum1;
p=new double **[sidenum];
ddp=new double **[sidenum];
pnode=new int [sidenum+1];//包含输入层输出层每一层的节点数
for(int i=0;i<sidenum+1;i++)
{
int data=0;
cout<<"请输入第"<<i<<"层节点数"<<endl;
cin>>data;
pnode[i]=data;
}
for (int j=0;j<sidenum;j++)
{  p[j]=new double* [pnode[j+1]];
ddp[j]=new double*[pnode[j+1]];
for (int k=0;k<pnode[j+1];k++)
{  ddp[j][k]=new double[pnode[j]+1];
p[j][k]=new double[pnode[j]+1];
for (int t=0;t<pnode[j]+1;t++)
{ ddp[j][k][t]=0;//每一层的权值初始化为0
if(t==0)p[j][k][t]=-fabs(randf());//每一层的阀值初始化
else p[j][k][t]=randf();//每一层的权值初始化
丁晓君天女散花
}
}
}

本文发布于:2024-09-21 22:06:56,感谢您对本站的认可!

本文链接:https://www.17tex.com/xueshu/412985.html

版权声明:本站内容均来自互联网,仅供演示用,请勿用于商业和其他非法用途。如果侵犯了您的权益请与我们联系,我们将在24小时内删除。

标签:节点   输出   模型   输入   学习   网络
留言与评论(共有 0 条评论)
   
验证码:
Copyright ©2019-2024 Comsenz Inc.Powered by © 易纺专利技术学习网 豫ICP备2022007602号 豫公网安备41160202000603 站长QQ:729038198 关于我们 投诉建议