一、理论基础

广义回归神经网络是径向基神经网络的一种,GRNN具有很强的非线性映射能力和学习速度,比RBF具有更强的优势,网络最后普收敛于样本量集聚较多的优化回归,样本数据少时,预测效果很好,   网络还可以处理不稳定数据。 广义回归神经网络对x的回归定义不同于径向基函数的对高斯权值的最小二乘法叠加,他是利用密度函数来预测输出。 假定x,y为两个随机变量,联合概率密度为 f(x,y)。 我们就得到以下公式: (x0)=F(y*f(x0,y))/F(f(x0,y)). F代表积分。 (x0)就是y在x0条件下在预测输出。 x0是的观测值。 现在未知数就是f(x,y)。 怎样估计已知数值而未知分布的密度函数呢?这里我们使用Parzen非参数估计方法。 窗口函数选择为高斯窗口。 得到下式 y(x0)=F(y*exp(-d))/F(exp(-d))。 d代表的就是离中心的距离,exp(-d)就是径向基函数隐含层的输出。

二、程序

desired_spread=[]; mse_max=10e20; desired_input=[]; desired_output=[]; result_perfp=[]; indices = crossvalind('Kfold',length(p_train),4); h=waitbar(0,'正在寻找最优化参数....') k=1; for i = 1:4    perfp=[];    disp(['以下为第',num2str(i),'次交叉验证结果'])    test = (indices == i); train = ~test;    p_cv_train=p_train(train,:);    t_cv_train=t_train(train,:);    p_cv_test=p_train(test,:);    t_cv_test=t_train(test,:);    p_cv_train=p_cv_train';    t_cv_train=t_cv_train';    p_cv_test= p_cv_test';    t_cv_test= t_cv_test';    [p_cv_train,minp,maxp,t_cv_train,mint,maxt]=premnmx(p_cv_train,t_cv_train);    p_cv_test=tramnmx(p_cv_test,minp,maxp);    for spread=0.1:0.1:2;        net=newgrnn(p_cv_train,t_cv_train,spread);        waitbar(k/80,h);        disp(['当前spread值为', num2str(spread)]);        test_Out=sim(net,p_cv_test);        test_Out=postmnmx(test_Out,mint,maxt);        error=t_cv_test-test_Out;        disp(['当前网络的mse为',num2str(mse(error))])        perfp=[perfp mse(error)];        if mse(error)<mse_max            mse_max=mse(error);            desired_spread=spread;            desired_input=p_cv_train;            desired_output=t_cv_train;        end        k=k+1;    end    result_perfp(i,:)=perfp; end; disp(['最佳spread值为',num2str(desired_spread)]) disp(['此时最佳输入值为']) desired_input disp(['此时最佳输出值为']) desired_output %% 采用最佳方法建立GRNN网络 net=newgrnn(desired_input,desired_output,desired_spread); p_test=p_test'; grnn_prediction_result=sim(net,p_test); grnn_prediction_result=postmnmx(grnn_prediction_result,mint,maxt); grnn_error=t_test-grnn_prediction_result'; disp(['GRNN神经网络三项流量预测的误差为',num2str(abs(grnn_error))])

三、结果展示