A.神经元与神经元之间的接触部位叫突触
B.一个突触由突触前膜、突触后膜与突触间隙三部分构成
C.突触小体为神经元的树突末端形成膨大球状的结构
D.突触小体的轴浆内含有大量线粒体和囊泡
神经网络模型(Neural Network)因受人类大脑的启发而得名。神经网络由许多神经元(Neuron)组成,每个神经元接受一个输入,对输入进行处理后给出一个输出。请问下列关于神经元的描述中,哪一项是正确的()。
A.每个神经元有一个输入和一个输出
B.每个神经元有多个输入和一个输出
C.每个神经元有一个输入和多个输出
D.每个神经元有多个输入和多个输出
A.Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN
B.DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0
C.丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络
D.Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合
A.都在脊髓灰质
B.前者在脊髓灰质,后者在大脑皮层躯体感觉中枢
C.前者在大脑皮层躯体运动中枢,后者在大脑皮层躯体感觉中枢
D.前者由下丘脑神经元支配,后者由大脑皮层神经元支配
A.每个神经元可以有一个输入和一个输出
B.每个神经元可以有多个输入和一个输出
C.每个神经元可以有多个输入和多个输出
D.每个神经元可以有多个输出和一个输入
A.递质分为外周递质和中枢递质两大类
B.外周递质主要包括去甲肾上腺素和乙酰胆碱
C.中枢神经元的轴突末梢释放相同的递质
D.抑制性突触释放抑制性递质
A.输出层与输入层之间包含隐含层,且隐含层和输出层都拥有激活函数的神经元
B.神经元之间存在同层连接以及跨层连接
C.输入层仅仅是接收输入,不进行函数处理
D.每层神经元上一层与下一层全互连
A.ReLU的单侧抑制提供了网络的稀疏表达能力。
B.ReLU在其训练过程中会导致神经元死亡的问题。
C.从计算的角度上,Sigmoid和Tanh激活函数均需要计算指数,复杂度高,而ReLU只需要一个阈值即可得到激活值。