首页 > 其他
题目内容 (请给出正确答案)
[单选题]

Sigmoid函数作为神经元激活函数的特点是()。

A.连续但不光滑

B.不连续但光滑

C.连续且光滑

D.不连续且不光滑

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“Sigmoid函数作为神经元激活函数的特点是()。”相关的问题
第1题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第2题
阶跃函数与sigmoid函数均为典型激活函数()。

A.正确

B.错误

点击查看答案
第3题
DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案
第4题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第5题
多层前馈神经网络描述错误的是:()。

A.输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元

B.神经元之间存在同层连接以及跨层连接

C.输入层仅仅是接收输入,不进行函数处理

D.每层神经元上一层与下一层全互连

点击查看答案
第6题
设计为8层的卷积神经网络AlexNet网络成功使用()函数,其效果远远地超过了Sigmoid函数。

A.ReLU函数

B.sigmoid函数

C.tanh函数

D.sin函数

点击查看答案
第7题
逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用()。

A.Sigmoid函数

B.tanh函数

C.ReLU函数

D.LeakyReLU函数

点击查看答案
第8题
常见的核函数主要包括()。

A.多项式核

B.高斯核

C.线性核

D.拉普拉斯核

E.Sigmoid核

点击查看答案
第9题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第10题
关于梯度消失和梯度消失,以下说法正确的是:()。

A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0

B.可以采用ReLU激活函数有效的解决梯度消失的情况

C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大

D.可以通过减小初始权重矩阵的值来缓解梯度爆炸

点击查看答案
第11题
()用于将非线性引入神经网络。它会将值缩小到较小的范围内。

A.损失函数

B.优化函数

C.激活函数

D.目标函数

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改