A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。
A.积分事件可以应用于所有信号,也可以指定某个单个信号
B.可在积分事件表中,直接点击鼠标右键,添加新的积分事件
C.峰宽设置值用于区分峰与噪音,也影响积分峰的宽度
D.斜率灵敏度值为信号斜率阈值,用于识别峰起点和终点
E.设置积分参数后,积分会自动应用到数据上,不需重新处理数据