首页 > 财会类考试
题目内容 (请给出正确答案)
[单选题]

训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,哪一个是导致这个问题的最有可能的原因()。

A.梯度消失

B.梯度爆炸

C.ReLU函数作为激活函数g(.),在计算g(z)时,z的数值过大了

D.Sigmoid函数作为激活函数g(.),在计算g(z)时,z的数值过大了

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“训练一个RNN网络,如果权重与激活值都是NaN,下列选项中,…”相关的问题
第1题
假设你正在训练一个LSTM网络,你有一个10,000词的词汇表,并且使用一个激活值维度为100的LSTM块,在每一个时间步中,Γu的维度是多少()。

A.1

B.100

C.300

D.10000

点击查看答案
第2题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第3题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第4题
关于梯度消失和梯度消失,以下说法正确的是:()。

A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0

B.可以采用ReLU激活函数有效的解决梯度消失的情况

C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大

D.可以通过减小初始权重矩阵的值来缓解梯度爆炸

点击查看答案
第5题
下列关于RNN说法正确的是()。

A.RNN可以应用在NLP领域

B.LSTM是RNN的一个变种

C.在RNN中一个序列当前的输出与前面的输出也有关

D.以上答案都正确

点击查看答案
第6题
关于Dropout说法正确的是:()。

A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN

B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0

C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络

D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合

点击查看答案
第7题
梯度爆炸问题是指在训练深度神经网络的时候,梯度变得过大而损失函数变为无穷。在RNN中,下面哪种方法可以较好地处理梯度爆炸问题?()

A.用改良的网络结构比如LSTM和GRUs

B.梯度裁剪

C.Dropout

D.所有方法都不行

点击查看答案
第8题
长短时记忆网络属于一种()。

A.全连接神经网络

B.门控RNN

C.BP神经网络

D.双向RNN

点击查看答案
第9题
在一个神经网络中,知道每一个神经元的权重和偏差是最重要的一步。如果知道了神经元准确的权重和偏差,便可以近似任何函数,但怎么获知每个神经的权重和偏移?()

A.搜索每个可能的权重和偏差组合,直到得到最佳值

B.赋予一个初始值,然后检查跟最佳值的差值,不断迭代调整权重

C.随机赋值

D.以上都不正确的

点击查看答案
第10题
主带看与陪看的权重封顶值是()

A.6:1

B.12:1

C.6:2

D.12:6

点击查看答案
第11题
如果一家有双胞胎或者多胞胎,能否购买多张儿童版用一个手机号激活()
点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改