分类
正在加载今日诗词...
深度学习之激活函数 深度学习之激活函数
一、为什么要使用激活函数​ 神经网络与感知机的一个最大区别是它使用了“阶跃函数”之外的其他激活函数,比如sigmoid函数。sigmoid函数相比”阶跃函数”更佳平滑. ​ 阶跃函数和sigmoid函数均为非线性函数, 线性函数
2020-01-18
深度学习之卷积神经网络 深度学习之卷积神经网络
一、卷积神经网络概述1、CNN简介CNN和之前介绍的神经网络一样,可以像乐高积木一样通过组装层来构建。不过,CNN中新出现了卷积层(Convolution层)和池化层(Pooling层)。 2、多层神经网络的问题 参数较多,多层神经网络采
2020-01-06
深度学习之超参数 深度学习之超参数
一、什么是超参数​ 超参数是我们在将学习算法应用于数据集之前需要设置的变量。超参数的一个挑战在于,它不存在适用于所有地方的万能数字,每个任务和数据集的最佳数字各不相同。​ 一般来讲, 我们可以将超参数分为两类, 第一类是优化器超
2019-12-30
深度学习之CNN模型演化 深度学习之CNN模型演化
前沿一、LeNet1998年LeCun发布了LeNet网络架构,从而揭开了深度学习的神秘面纱。 ​ 和“现在的CNN”相比, LeNet有几个不同点。 第一个不同点在于激活函数。 LeNet中使用sigmoid函数,而现在的CNN
2019-12-30
深度学习之过拟合 深度学习之过拟合
一、过拟合机器学习的问题中,过拟合是一个很常见的问题。过拟合指的是只能拟合训练数据,但不能很好地拟合不包含在训练数据中的其他数据的状态。机器学习的目标是提高泛化能力,即便是没有包含在训练数据里的未观测数据,也希望模型可以进行正确的识别。 发
2019-12-29
深度学习之优化算法 深度学习之优化算法
一、最优化神经网络的学习的目的是找到使损失函数的值尽可能小的参数。这是寻找最优参数的问题,解决这个问题的过程称为最优化(optimization)。常见的最优化方法有梯度下降法、牛顿法、拟牛顿法和共轭梯度法等。 二、梯度下降法梯度下降法是使
2019-11-28
神经网络简介 神经网络简介
一、感知器​ 感知器(perceptron)是由美国学者FrankRoseblatt在1957年提出来的。为何我们现在还要学习这一很久以前就有的算法呢?因为感知机也是作为神经网络(深度学习)的起源的算法。因此,学习感知机的构造也就是学
2019-11-25