在深度神经网络中采用一些先进的优化算法,不仅可以加速学习速度,还有可能获得更好的结果。本文介绍深度神经网络中最常用的三种优化算法:Mini-batch梯度下降法、动量法、Adam方法,并对一个简单数据集进行测试,对比三种方法的效果。
改善深度神经网络的性能(2):正则化化
发表于
|
分类于
深度学习
本文介绍一个提高深度神经网络性能的因素——正则化。深度神经网络十分灵活,增加网络深度可以很好地拟合训练数据,但是过拟合是一个很严重的问题,也就是说泛化能力不足。本文介绍两种解决方案:一种是用L2范数对模型参数进行正则化;另一种是用Dropout策略在每次迭代过程中随机丢失一部分神经元。两种方案都可以达到解决过拟合问题的目的。
改善深度神经网络的性能(1):参数初始化
发表于
|
分类于
深度学习
本文介绍一个提高深度神经网络性能的因素——初始化。不合理的初始化会降低收敛速度,甚至无法打破对称性,本文对比三种初始化方法:零初始化、大随机数初始化、He初始化。数值实验表明:合理的初始化会加快收敛速度。
单个隐藏层的神经网络
发表于
|
分类于
深度学习
逻辑回归可以看做只有输入和输出层的神经网络,本文介绍单个隐藏层的神经网络,并应用其进行二分类,利用非线性激活函数对线性不可分数据进行预测。涉及包括非线性激活函数的种类和功能、隐藏层的作用、梯度的计算等内容。