口袋数码E族

使用神经网络算法应注意的几个问题

2017-5-13 09:08| 发布者: admin| 查看: 765| 评论: 0

摘要: 神经网络用途十分广泛,适合处理描述性和预测性的数据挖掘。一、引言人工神经网络是对人脑或自然神经网络的若干基本特征的抽象和模拟,是按照一定的方式将大量神经元组合而成的网络。神经网络从理论上可以模拟多个输 ...

神经网络用途十分广泛,适合处理描述性和预测性的数据挖掘。

一、引言

人工神经网络是对人脑或自然神经网络的若干基本特征的抽象和模拟,是按照一定的方式将大量神经元组合而成的网络。神经网络从理论上可以模拟多个输入输出的任意非线性系统,并且对噪声样本有很强的识别能力。这表明不论样本数据具有怎样的表现形式,神经网络能够逼近其中蕴含的规律,可以有效地弥补其他方法的缺陷。神经网络具有强大的非线性映射能力,而且还具有自适应、自学习、容错性等性质,对于带有不完全、错误和不准确信息的高维数据集表现出色。神经网络以其独特的信息处理特点,在许多领域得到了成功应用。

二、使用神经网络应注意以下几个问题

1. 归一化。为了使神经网络的输入输出在转换函数的响应范围之内,需对输入数据进行归一化处理,这样做,也可以使网络的收敛速度加快。训练结束后,对得到的输出数据进行相同范围的反归一化。

2. 隐含层节点数。输入层和输出层的单元数根据具体问题确定,而隐含层单元数的确定方法尚不成熟。一般情况下,当隐含层结点数太多时,网络模型太复杂,学习充分,对训练样本拟合精度高,泛化能力弱,易产生局部极小值的问题;而当结点数太少时,网络模型太简单,学习往往不够充分,预测的精度无法得到保证。因此,隐含层节点数是保证预测精度的一个重要因素,一般可通过试凑法试验,根据训练结果来进行选择,下面这些公式可以作为试凑法的初始值:

使用神经网络算法应注意的几个问题

隐含层节点数的确定

3. 学习算法的改进。为了加快BP网络的收敛速度,避免局部极小值问题,国内外已提出了大量的改进方法。如附加动量BP算法、Levenberg-Marquardt法、共轭梯度法和Quasi-Newton拟牛顿法等,这些方法从不同程度上对神经网络的收敛性能进行了改善。


鲜花

握手

雷人

路过

鸡蛋

最新评论

QQ|Archiver|手机版|小黑屋|口袋数码E族 ( 豫ICP备15004038号-2 )

GMT+8, 2025-5-2 21:45 , Processed in 0.067352 second(s), 17 queries .