资源简介
利用现最流行的神经网络模型,在数学建模中根据已有的数据通过学习进行预测
代码片段和文件信息
clc
clear all
close all
%bp 神经网络的预测代码
%载入输出和输入数据
p=[61
61
61
61
61
61
61
61
61
61
61
63
63
63
63
64
64
64
64
64
]‘;
%load C:\Users\amzon\Desktop\p.txt;
t=[66
66
67
67
67
67
64
64
67
67
67
67
67
67
67
67
67
67
64
64
64
64
64
64
67
67
67
67
67
66
66
66
61
61
61
61
61
61
55
55
61
61
66
66
66
66
66
68
68
68
65
65
65
65
66
66
66
66
66
]‘;
%load C:\Users\amzon\Desktop\t.txt;
%保存数据到matlab的工作路径里面
save p.mat;
save t.mat; %注意t必须为行向量
%赋值给输出p和输入t
p=p;
t=t;
%数据的归一化处理,利用mapminmax函数,使数值归一化到[-1.1]之间
%该函数使用方法如下:[yps] =mapminmax(xyminymax),x需归化的数据输入,
%ymin,ymax为需归化到的范围,不填默认为归化到[-11]
%返回归化后的值y,以及参数ps,ps在结果反归一化中,需要调用
[p1ps]=mapminmax(p);
[t1ts]=mapminmax(t);
%确定训练数据,测试数据一般是随机的从样本中选取70%的数据作为训练数据
%15%的数据作为测试数据,一般是使用函数dividerand,其一般的使用方法如下:
%[trainIndvalIndtestInd] = dividerand(QtrainRatiovalRatiotestRatio)
[trainsample.pvalsample.ptestsample.p] =dividerand(p0.70.150.15);
[trainsample.tvalsample.ttestsample.t] =dividerand(t0.70.150.15);
%建立反向传播算法的BP神经网络,使用newff函数,其一般的使用方法如下
%net = newff(minmax(p)[隐层的神经元的个数,输出层的神经元的个数]{隐层神经元的传输函数,输出层的传输函数}‘反向传播的训练函数‘)其中p为输入数据,t为输出数据
%tf为神经网络的传输函数,默认为‘tansig‘函数为隐层的传输函数,
%purelin函数为输出层的传输函数
%一般在这里还有其他的传输的函数一般的如下,如果预测出来的效果不是很好,可以调节
%TF1 = ‘tansig‘;TF2 = ‘logsig‘;
%TF1 = ‘logsig‘;TF2 = ‘purelin‘;
%TF1 = ‘logsig‘;TF2 = ‘logsig‘;
%TF1 = ‘purelin‘;TF2 = ‘purelin‘;
TF1=‘tansig‘;TF2=‘purelin‘;
net=newff(minmax(p)[101]{TF1 TF2}‘traingdm‘);%网络创建
%网络参数的设置
net.trainParam.epochs=10000;%训练次数设置
net.trainParam.goal=1e-7;%训练目标设置
net.trainParam.lr=0.01;%学习率设置应设置为较少值,太大虽然会在开始加快收敛速度,但临近最佳点时,会产生动荡,而致使无法收敛
net.trainParam.mc=0.9;%动量因子的设置,默认为0.9
net.trainParam.show=25;%显示的间隔次数
% 指定训练参数
% net.trainFcn = ‘traingd‘; % 梯度下降算法
% net.trainFcn = ‘traingdm‘; % 动量梯度下降算法
% net.trainFcn = ‘traingda‘; % 变学习率梯度下降算法
% net.trainFcn = ‘traingdx‘; % 变学习率动量梯度下降算法
% (大型网络的首选算法)
% net.trainFcn = ‘trainrp‘; % RPROP(弹性BP)算法内存需求最小
% 共轭梯度算法
% net.trainFcn = ‘trai
- 上一篇:matlab2018b网盘
- 下一篇:一段求解基尼系数的matlab代码
评论
共有 条评论