题目内容
(请给出正确答案)
[单选题]
Sigmoid函数作为神经元激活函数的特点是()。
A.连续但不光滑
B.不连续但光滑
C.连续且光滑
D.不连续且不光滑
查看答案
如果结果不匹配,请 联系老师 获取答案
A.连续但不光滑
B.不连续但光滑
C.连续且光滑
D.不连续且不光滑
A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。
A.使用sigmod函数容易出现梯度消失
B.sigmod的导数形式较为复杂
C.双曲正切更简单
D.sigmoid函数实现较为复杂
A.输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元
B.神经元之间存在同层连接以及跨层连接
C.输入层仅仅是接收输入,不进行函数处理
D.每层神经元上一层与下一层全互连
A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0
B.可以采用ReLU激活函数有效的解决梯度消失的情况
C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大
D.可以通过减小初始权重矩阵的值来缓解梯度爆炸