Home of a Explorer


  • 首页

  • 分类

  • 标签

  • 归档

  • 关于

  • 搜索

深度神经网络中的优化算法

发表于 2018-03-08 | 分类于 深度学习

在深度神经网络中采用一些先进的优化算法,不仅可以加速学习速度,还有可能获得更好的结果。本文介绍深度神经网络中最常用的三种优化算法:Mini-batch梯度下降法、动量法、Adam方法,并对一个简单数据集进行测试,对比三种方法的效果。

阅读全文 »

梯度验证

发表于 2018-03-08 | 分类于 深度学习

神经网络的反向传播过程中,梯度计算十分重要。如果梯度计算有误,模型训练很难保证收敛。本文介绍一种验证梯度计算是否正确的方法,该方法简单有效,但是计算比较耗时,往往不会在每次训练过程中都进行验证,而是在需要确保梯度正确的时候才使用。

阅读全文 »

改善深度神经网络的性能(2):正则化化

发表于 2018-03-08 | 分类于 深度学习

本文介绍一个提高深度神经网络性能的因素——正则化。深度神经网络十分灵活,增加网络深度可以很好地拟合训练数据,但是过拟合是一个很严重的问题,也就是说泛化能力不足。本文介绍两种解决方案:一种是用L2范数对模型参数进行正则化;另一种是用Dropout策略在每次迭代过程中随机丢失一部分神经元。两种方案都可以达到解决过拟合问题的目的。

阅读全文 »

改善深度神经网络的性能(1):参数初始化

发表于 2018-03-08 | 分类于 深度学习

本文介绍一个提高深度神经网络性能的因素——初始化。不合理的初始化会降低收敛速度,甚至无法打破对称性,本文对比三种初始化方法:零初始化、大随机数初始化、He初始化。数值实验表明:合理的初始化会加快收敛速度。

阅读全文 »

深度神经网络在图像分类中的应用

发表于 2018-03-08 | 分类于 深度学习

本文介绍深度神经网络的一个主要应用:计算机视觉。对比逻辑回归,浅层神经网络在图像分类中的性能,说明深度神经网络在图像分类中的应用价值。

阅读全文 »

搭建深度神经网络

发表于 2018-03-08 | 分类于 深度学习

深度神经网络是指多于一个隐藏层的神经网络。本文将详细介绍深度神经网络的基本原理及实现。涉及到模型的初始化、梯度的计算、激活函数的求导等内容。

阅读全文 »

单个隐藏层的神经网络

发表于 2018-03-08 | 分类于 深度学习

逻辑回归可以看做只有输入和输出层的神经网络,本文介绍单个隐藏层的神经网络,并应用其进行二分类,利用非线性激活函数对线性不可分数据进行预测。涉及包括非线性激活函数的种类和功能、隐藏层的作用、梯度的计算等内容。

阅读全文 »

打包Spark应用程序

发表于 2018-02-21 | 分类于 高性能计算

本文以计算两点之间的直线距离为例子,介绍从模块化代码、打包成Spark应用程序到提交Spark作业的完整流程。

阅读全文 »

DataFrame

发表于 2018-02-04 | 分类于 高性能计算

DataFrame是一种是不可变的分布式数据集,类似于关系数据库中的表。通过在分布式数据集上施加结构,使得用户能够利用Spark SQL或者使用Spark表达式方法来查询结构化的数据(而不是使用lambda表达式)。通过构建数据,使得catalyst优化器显著提高Spark的查询性能。

阅读全文 »

弹性分布式数据集

发表于 2018-02-04 | 分类于 高性能计算

弹性分布式数据集(RDD:Resilient Distributed Dataset)是Apache Spark的核心,它指的是一组不可变的Java虚拟机(JVM)对象的分布集,可以执行快速运算。该数据集有两个特点:一个特点是分布式,意味着数据集将被划分成块,并被分发到执行节点上,从而可以对这个数据集执行分布式快速计算;第二个特点是该数据集跟踪/记录每个数据块的所有转换,不仅可以加快计算速度,而且可以在发生错误和部分数据丢失的情况下提供回退操作,这样该数据集就可以重新计算数据。

阅读全文 »
1…3456
Seisinv

Seisinv

51 日志
6 分类
125 标签
© 2018 Seisinv
由 Hexo 强力驱动
|
主题 — NexT.Mist v5.1.3