网页
资讯
视频
图片
知道
文库
贴吧
地图
采购
进入贴吧
全吧搜索
吧内搜索
搜贴
搜人
进吧
搜标签
日
一
二
三
四
五
六
签到排名:今日本吧第
个签到,
本吧因你更精彩,明天继续来努力!
本吧签到人数:0
一键签到
成为超级会员,使用一键签到
一键签到
本月漏签
0
次!
0
成为超级会员,赠送8张补签卡
如何使用?
点击日历上漏签日期,即可进行
补签
。
连续签到:
天 累计签到:
天
0
超级会员单次开通12个月以上,赠送连续签到卡3张
使用连续签到卡
05月04日
漏签
0
天
开课吧python吧
关注:
361
贴子:
4,049
看贴
图片
吧主推荐
游戏
首页
上一页
1
2
3
4
下一页
尾页
49
回复贴,共
4
页
,跳到
页
确定
<<返回开课吧python吧
>0< 加载中...
回复:【开课吧python】十个常用深度学习算法
只看楼主
收藏
回复
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
6、批量标准化
当然,包括深度网络在内的神经网络需要仔细调整权重初始值和学习参数。批量标准化能够使这个过程更加简单。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
权重问题:
无论怎么设置权重初始值,比如随机或按经验选择,初始权重和学习后的权重差别都很大。考虑一小批权重,在最初时,对于所需的特征激活可能会有很多异常值。
深度神经网络本身就具有病态性,即初始层的微小变化就会导致后一层的巨大变化。
天津三六零快看科技
文档下载360文库涵盖各类文档资料,制度/计划/方案/章程等办公资料模板,360文库助您提高效率。全新热门文库,全职业覆盖!10亿+文档资料库,更多VIP特权。
2025-05-04 04:14
广告
立即查看
广告
立即查看
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
在反向传播过程中,这些现象会导致梯度的偏移,这就意味着在学习权重以产生所需要的输出之前,梯度必须补偿异常值。而这将导致需要额外的时间才能收敛。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
批量标准化将这些梯度从异常值调整为正常值,并在小批量范围内(通过标准化)使其向共同的目标收敛。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
学习率问题:
通常来说,学习率都比较小,这样只有一小部分的梯度用来校正权重,因为异常激活的梯度不应该影响已经学习好的权重。
通过批量标准化,这些异常激活的可能性会被降低,就可以使用更大的学习率加速学习过程。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
7、长短期记忆
长短期记忆网络(LSTM)和其他递归神经网络中的神经元有以下三个不同点:
①它可以决定何时让输入进入神经元
②它可以决定何时记住上一个时间步中计算的内容
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
③它可以决定何时让输出传递到下一个时间戳 LSTM的强大之处在于它可以只基于当前的输入就决定上述所有。请看下方的图表:
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
当前时间戳的输入信号 x(t) 决定了上述三点。
输入门(input gate)决定了第一点,
遗忘门(forget gate)决定了第二点,
输出门(output gate)决定了第三点。
只依赖输入就可以完成这三项决定。
这是受到大脑工作机制的启发,大脑可以基于输入来处理突然的上下文语境切换。
高质信同(北京)科技
python
一手英文教程自动翻译,用大同搜索开启不受语言限制的互联网!
2025-05-04 04:14
广告
立即查看
广告
立即查看
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
8、Skip-gram
词嵌入模型的目的是针对每个词学习一个高维密集表征,其中嵌入向量之间的相似性显示了相应词语之间语义或句法的相似性。Skip-gram 是一种学习词嵌入算法的模型。 skip-gram 模型(包括很多其它词嵌入模型)背后的主要思想是:如果两个词汇项有相似的上下文,则它们是相似的。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
换句话说,假设有一个句子,比如“cats are mammals”,如果用“dogs”替换“cats”,该句子仍然是有意义的。因此在这个例子中,“dogs”和“cats”有相似的上下文(即“are mammals”)。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
基于以上假设,我们可以考虑一个上下文窗口(包含 K 个连续项)。然后跳过其中一个词,试着学习一个可以得到除了跳过的这个词以外所有词项,并且可以预测跳过的词的神经网络。因此,如果两个词在一个大语料库中多次具有相似的上下文,那么这些词的嵌入向量将会是相似的。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
9、连续词袋模型
在自然语言处理中,我们希望将文档中的每一个单词表示为一个数值向量,使得出现在相似上下文中的单词具有相似或相近的向量表示。在连续词袋模型中,我们的目标是利用一个特定单词的上下文,预测该词。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
首先在一个大的语料库中抽取大量的句子,每看到一个单词,同时抽取它的上下文。然后我们将上下文单词输入到一个神经网络,并预测在这个上下文中心的单词。
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
当我们有成千上万个这样的上下文词汇和中心词时,我们就得到了一个神经网络数据集的实例。然后训练这个神经网络,在经过编码的隐藏层的最终输出中,我们得到了特定单词的嵌入式表达。当我们对大量的句子进行训练时也能发现,类似上下文中的单词都可以得到相似的向量。
广告
立即查看
语子易
知名人士
10
该楼层疑似违规已被系统折叠
隐藏此楼
查看此楼
10、迁移学习
我们来考虑一下卷积神经网络是如何处理图像的。假设有一张图像,对其应用卷积,并得到像素的组合作为输出。假设这些输出是边缘,再次应用卷积,那么现在的输出将是边缘或线的组合。然后再次应用卷积,此时的输出将是线的组合,以此类推。可以把它想象成是在每一层寻找一个特定的模式。神经网络的最后一层通常会变得非常特别。
登录百度账号
扫二维码下载贴吧客户端
下载贴吧APP
看高清直播、视频!
贴吧页面意见反馈
违规贴吧举报反馈通道
贴吧违规信息处理公示