学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。 p=p1';t=t1'; [pn,minp,maxp,tn,mint,maxt]=premnmx(p,t); %原始数据归一化 net=newff(minmax(pn),[5,1],{'tansig','purelin'},'traingdx'); %设置网络,建立相应的BP 网络,minmax(pn)找到pn 矩阵的最大最小值 net.trainParam.show=2000; % 训练网络 net.trainParam.lr=0.01; net.trainParam.epochs=100000; net.trainParam.goal=1e-5; [net,tr]=train(net ,pn,tn); %调用TRAINGDM 算法训练BP网络 pnew=pnew1'; pnewn=tramnmx(pnew,minp,maxp); anewn=sim(net,pnewn); %对BP 网络进行仿真 anew=postmnmx(anewn,mint,maxt); %还原数据 y=anew'; 1、BP 网络构建 (1)生成BP 网络 (,[ 1 2...],{1 2...},,,)netnew ff PR S SSNlTF TFTFNlBTF BLF PF PR :由 R 维的输入样本最小最大值构成的2R维矩阵。 [ 1 2...]S SSNl :各层的神经元个数。 {1 2...}TF TFTFNl :各层的神经元传递函数。 BTF :训练用函数的名称。 (2)网络训练 [,, ,,,] (, , ,,,,)net tr Y E Pf Aftrain net P T Pi Ai VV TV (3)网络仿真 [ ,,,,] (, ,,, )Y Pf Af E perfsim net P Pi Ai T {'tansig','purelin'},'trainrp' BP 网络的训练函数 训练方法 训练函数 梯度下降法 traingd 有动量的梯度下降法 traingdm 自适应lr 梯度下降法 traingda 自适应lr 动量梯度下降法 traingdx 弹性梯度下降法 trainrp Fletcher-Reeves 共轭梯度法 traincgf 学习神经网络的好助手,可以仿照其中的代码,只需修改个别参数便可以轻易实现自己需要完成的任务。 Ploak-Ribiere 共轭梯度法 traincgp Powell-Beale 共轭梯度法 traincgb 量化共轭梯度法 trainscg 拟牛顿算法 trainbfg 一步正割算法 trainoss Levenberg-Marquardt trainlm BP 网络训练参数 训练参数 参数介绍 训练函数 net.trainParam.epochs 最大训练次数(缺省为10) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.goal 训练要求精度(缺省为0) traingd、traingdm、traingda、traingdx、trainrp、traincgf、traincgp、traincgb、trainscg、trainbfg、trainoss、trainlm net.trainParam.l...