网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
05月04日
漏签
0
天
开课吧python吧
关注:
361
贴子:
4,049
看贴
图片
吧主推荐
游戏
首页
上一页
1
2
3
4
下一页
尾页
49
回复贴,共
4
页
,跳到
页
确定
<<返回开课吧python吧
>0< 加载中...
回复:【开课吧python】十个常用深度学习算法
只看楼主
收藏
回复
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
在这个帖子里,主要讨论三个框架:
卷积神经网络(Convolutional Neural Network)基本上就是用共享权重在空间中进行扩展的标准神经网络。卷积神经网络主要是通过内部卷积来识别图片,内部卷积可以看到图像上识别对象的边缘。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
循环神经网络(Recurrent Neural Network)基本上就是在时间上进行扩展的标准神经网络,它提取进入下一时间步的边沿,而不是在同一时间进入下一层。循环神经网络主要是为了识别序列,例如语音信号或者文本。其内部的循环意味着网络中存在短期记忆。
天津三六零快看科技
文档下载360文库涵盖各类文档资料,制度/计划/方案/章程等办公资料模板,360文库助您提高效率。全新热门文库,全职业覆盖!10亿+文档资料库,更多VIP特权。
2025-05-04 03:59
广告
立即查看
广告
立即查看
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
递归神经网络(Recursive Neural Network)更类似于分层网络,其中输入序列没有真正的时间面,但是必须以树状方式分层处理。以下10种方法均可应用于这些框架。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
1、反向传播
反向传播是一种计算函数偏导数(或梯度)的简单方法,它的形式是函数组合(如神经网络)。在使用基于梯度的方法求解最优化问题(梯度下降只是其中之一)时,需要在每次迭代中计算函数梯度。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
对于一个神经网络,其目标函数是组合形式。那么应该如何计算梯度呢?有2种常规方法:
(1)微分解析法。函数形式已知的情况下,只需要用链式法则(基础微积分)计算导数。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
(2)有限差分法近似微分。这种方法运算量很大,因为函数评估的数量级是 O(N),其中 N 是参数的个数。与微分解析法相比,这种方法运算量更大,但是在调试时,通常会使用有限差分验证反向传播的效果。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
2、随机梯度下降
梯度下降的一个直观理解就是想象一条源自山顶的河流。这条河流会沿着山势的方向流向山麓的最低点,而这也正是梯度下降法的目标。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
我们所期望的最理想的情况就是河流在到达最终目的地(最低点)之前不会停下。在机器学习中,这等价于我们已经找到了从初始点(山顶)开始行走的全局最小值(或最优值)。然而,可能由于地形原因,河流的路径中会出现很多坑洼,而这会使得河流停滞不前。在机器学习术语中,这种坑洼称为局部最优解,而这不是我们想要的结果。有很多方法可以解决局部最优问题。
高质信同(北京)科技
python
一手英文教程自动翻译,用大同搜索开启不受语言限制的互联网!
2025-05-04 03:59
广告
立即查看
广告
立即查看
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
因此,由于地形(即函数性质)的限制,梯度下降算法很容易卡在局部最小值。但是,如果能够找到一个特殊的山地形状(比如碗状,术语称作凸函数),那么算法总是能够找到最优点。在进行最优化时,遇到这些特殊的地形(凸函数)自然是最好的。另外,山顶初始位置(即函数的初始值)不同,最终到达山底的路径也完全不同。同样,不同的流速(即梯度下降算法的学习速率或步长)也会导致到达目的地的方式有差异。是否会陷入或避开一个坑洼(局部最小值),都会受到这两个因素的影响。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
3、学习率衰减
调整随机梯度下降优化算法的学习速率可以提升性能并减少训练时间。这被称作学习率退火或自适应学习率。训练中最简单也最常用的学习率自适应方法就是逐渐降低学习率。在训练初期使用较大的学习率,可以对学习率进行大幅调整;在训练后期,降低学习率,以一个较小的速率更新权重。这种方法在早期可以快速学习获得较好的权重,并在后期对权重进行微调。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
两个流行而简单的学习率衰减方法如下:
线性地逐步降低学习率
在特定时点大幅降低学习率
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
4、Dropout
拥有大量参数的深度神经网络是非常强大的机器学习系统。然而,在这样的网络中,过拟合是一个很严重的问题。而且大型网络的运行速度很慢,这就使得在测试阶段通过结合多个不同的大型神经网络的预测来解决过拟合问题是很困难的。Dropout 方法可以解决这个问题。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
其主要思想是,在训练过程中随机地从神经网络中删除单元(以及相应的连接),这样可以防止单元间的过度适应。训练过程中,在指数级不同“稀疏度”的网络中剔除样本。在测试阶段,很容易通过使用具有较小权重的单解开网络(single untwined network),将这些稀疏网络的预测结果求平均来进行近似。这能有效地避免过拟合,并且相对于其他正则化方法能得到更大的性能提升。Dropout 技术已经被证明在计算机视觉、语音识别、文本分类和计算生物学等领域的有监督学习任务中能提升神经网络的性能,并在多个基准数据集中达到最优秀的效果。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
5、最大池
最大池是一种基于样本的离散化方法。目标是对输入表征(图像、隐藏层输出矩阵等)进行下采样,降低维度并且允许对子区域中的特征进行假设。
广告
立即查看
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
通过提供表征的抽象形式,这种方法可以在某种程度上解决过拟合问题。同样,它也通过减少学习参数的数目以及提供基本的内部表征转换不变性来减少计算量。最大池是通过将最大过滤器应用于通常不重叠的初始表征子区域来完成的。
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示