【神经网络 隐含层节点数的设置】如何设置神经网络隐藏层 的神经元个数

当训练集确定之后,输入层结点数和输出层结点数随之而确定,首先遇到的一个十分重要而又困难的问题是如何优化隐层结点数和隐层数。实验表明,如果隐层结点数过少,网络不能具有必要的学习能力和信息处理能力。反之,若过多,不仅会大大增加网络结构的复杂性(这一点对硬件实现的网络尤其重要),网络在学习过程中更易陷入局部极小点,而且会使网络的学习速度变得很慢。隐层结点数的选择问题一直受到神经网络研究工作者的高度重视。

 方法1: fangfaGorman指出隐层结点数s与模式数N的关系是:s=log2N;  

方法二: Kolmogorov定理表明,隐层结点数s=2n+1(n为输入层结点数);

 方法三: s=sqrt(0.43mn+0.12nn+2.54m+0.77n+0.35)+0.51 (m是输入层的个数,n是输出层的个数)。

    原文作者:shang_bo_liang
    原文地址: https://blog.csdn.net/shang_bo_liang/article/details/120106830
    本文转自网络文章,转载此文章仅为分享知识,如有侵权,请联系博主进行删除。
点赞