登录    注册    忘记密码    使用帮助

详细信息

基于梯度下降法的Chebyshev前向神经网络     被引量:4

A Chebyshev Forward Neural Network Based on Gradient Descent Method

文献类型:期刊文献

中文题名:基于梯度下降法的Chebyshev前向神经网络

英文题名:A Chebyshev Forward Neural Network Based on Gradient Descent Method

作者:肖秀春[1];彭银桥[1];梅其祥[2];闫敬文[3]

机构:[1]广东海洋大学电子与信息工程学院,广东湛江524088;[2]广东海洋大学数学与计算机学院,广东湛江524088;[3]汕头大学工学院,广东汕头515063

年份:2018

卷号:35

期号:2

起止页码:153

中文期刊名:安徽工业大学学报(自然科学版)

外文期刊名:Journal of Anhui University of Technology(Natural Science)

收录:CSTPCD

基金:广东省数字信号与图像处理重点实验室开放课题资助项目(2016GDDSIPL-02);广东海洋大学博士启动基金资助项目(E13428);广东海洋大学创新强校资助项目(Q15090)

语种:中文

中文关键词:Chebyshev多项式;神经网络;函数逼近;梯度下降法

外文关键词:Chebyshev polynomials;neural network;function approximation;gradient descent method

中文摘要:传统人工神经网络模型中,同一隐层各神经元的激励函数是相同的,这与人类神经元的实际情况不一致。为此,构造一种隐层各神经元激励函数互不相同的前向神经网络模型,采用一簇Chebyshev正交多项式序列作为其隐层各神经元的激励函数(简称Chebyshev前向神经网络),并为Chebyshev前向神经网络推导基于梯度下降法的网络参数训练算法。仿真实验表明,基于梯度下降法的Chebyshev前向神经网络算法能够有效调整网络参数,使之以较高的精度逼近具有复杂模式的样本数据集。

外文摘要:In traditional artificial neural network model, the activation functions of neurons in the same hidden layer are the same, which is not consistent with the actual situation of human neurons. For this reason, and a forward neural network model with different activation functions of each neuron in the hidden layer was constructed, a cluster of Chebyshev orthogonal polynomials was used as the activation function of each neuron of the hidden layer (Chebyshev forward neural network). A training algorithm for network parameters based on gradient descent method was derived for Chebyshev feedforward neural network. The simulation experiment shows that the Cheby- shev forward neural network algorithm based on gradient descent method can effectively adjust the network parameters, and make it approximate in sample data set of complex patterns with high precision.

参考文献:

正在载入数据...

版权所有©广东海洋大学 重庆维普资讯有限公司 渝B2-20050021-8 
渝公网安备 50019002500408号 违法和不良信息举报中心