通常,对所有隐藏层使用相同数量的神经元就足够了。对于某些数据集,拥有较大的第一层并在其后跟随较小的层将导致更好的性能,因为第一层可以学习很多低阶的特征,这些较低层的特征可以馈入后续层中,提取出较高阶特征。
需要注意的是,与在每一层中添加更多的神经元相比,添加层层数将获得更大的性能提升。因此,不要在一个隐藏层中加入过多的神经元
关于低阶特征、高阶特征:
机器学习、数据挖掘中所谓的低阶、高阶特征_renzhentinghai的博客-CSDN博客_高阶特征
多层神经网络特征提取的特征最后到底是在提取什么?为什么说那玩意儿是特征? – 知乎
神经网络就是可以用一些基础函数无限接近表达一个分类函数。可以理解他是一个转换器。高维进,低维出。
需要注意的是,与在每一层中添加更多的神经元相比,添加层层数将获得更大的性能提升。因此,不要在一个隐藏层中加入过多的神经元
———————————————————————-
首先理解对于每一层来说都进行了一个线性变化加非线性变换即:
Y=f(WX+B)
其次:
WX的本质其实是一个线性组合,把WX展开就是w1x1+w2x2+w3x3....实质是不同特征的一个加权组合。比如:身高和体重这两个特征就会加权组合为身材匀称这一特征,而身材匀称这个特征即是高度抽象的特征,更有利于进行分类/回归任务。
f()非线性变换代表激活函数。
也就是说只有高度抽象的特征达到一定程度才允许被进入下一层的网络中,不经意间实现了特征选择的任务。
答案:多层神经网络特征提取的特征最后到底是在提取什么?提取高度抽象的特征。
为什么说那玩意儿是特征?是特征的组合也算特征吧。
作者:阿亮
链接:https://www.zhihu.com/question/285934028/answer/447494507
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
确定神经元就是靠经验公式先确定一个,然后训练模型,输出图像看看有没有过拟合,然后再调整参数。你们想直接获得层数的,说明对人工神经网络的理解很表面