首页 > 其他
题目内容 (请给出正确答案)
[单选题]

下列关于sigmoid激活函数的说法正确的有()。

A.拥有非对称结构

B.输出全为负值

C.输出全为正值

D.输出全部大于

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“下列关于sigmoid激活函数的说法正确的有()。”相关的问题
第1题
DNN常用的激活函数有()。

A.sigmoid

B.tanh

C.ReLU

D.以上答案都正确

点击查看答案
第2题
阶跃函数与sigmoid函数均为典型激活函数()。

A.正确

B.错误

点击查看答案
第3题
在深度学习中,下列对于sigmoid函数的说法,错误的是()。

A.存在梯度爆炸的问题

B.不是关于原点对称

C.计算exp比较耗时

D.存在梯度消失的问题

点击查看答案
第4题
以下哪一项不属于ReLU系列的激活函数相对于Sigmoid和Tanh激活函数的优点?()

A.ReLU的单侧抑制提供了网络的稀疏表达能力。

B.ReLU在其训练过程中会导致神经元死亡的问题。

C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。

点击查看答案
第5题
Sigmoid函数作为神经元激活函数的特点是()。

A.连续但不光滑

B.不连续但光滑

C.连续且光滑

D.不连续且不光滑

点击查看答案
第6题
为什么RNN网络的激活函数要选用双曲正切而不是sigmod呢()。

A.使用sigmod函数容易出现梯度消失

B.sigmod的导数形式较为复杂

C.双曲正切更简单

D.sigmoid函数实现较为复杂

点击查看答案
第7题
逻辑回归将输出概率限定在[0,1]之间。下列哪个函数起到这样的作用()。

A.Sigmoid函数

B.tanh函数

C.ReLU函数

D.LeakyReLU函数

点击查看答案
第8题
设计为8层的卷积神经网络AlexNet网络成功使用()函数,其效果远远地超过了Sigmoid函数。

A.ReLU函数

B.sigmoid函数

C.tanh函数

D.sin函数

点击查看答案
第9题
常见的核函数主要包括()。

A.多项式核

B.高斯核

C.线性核

D.拉普拉斯核

E.Sigmoid核

点击查看答案
第10题
关于梯度消失和梯度消失,以下说法正确的是:()。

A.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都小于1的话,那么即使这个结果是0.99,在经过足够多层传播之后,误差对输入层的偏导会趋于0

B.可以采用ReLU激活函数有效的解决梯度消失的情况

C.根据链式法则,如果每一层神经元对上一层的输出的偏导乘上权重结果都大于1的话,在经过足够多层传播之后,误差对输入层的偏导会趋于无穷大

D.可以通过减小初始权重矩阵的值来缓解梯度爆炸

点击查看答案
第11题
下列关于Python中的函数的说法,正确的是()。

A.函数用关键字function定义

B.函数定义时,函数的主体内容应与定义语句开头对齐

C.polynomial(x=1,2,z=3)的传递参数的方法是正确的

D.默认参数值可以在传递参数时修改

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改