神经网络前向传播和反向传播算法推导

一、目标 推导具有单隐层的神经网络的前向传播和反向传播算法,并进行编程(可以使用sklearn中的神经网络)。 探讨10,30,100,300,1000,不同隐藏节点数对网络性能的影响。 探讨不同学习率和迭代次数对网络性能的影响。 改变数据的标准化方法,探讨对训练的影响。 查阅资料说明什么是Hebb学习规则

发布于 机器学习