在下列关于生成对抗网络的训练的说法中,描述正确的是()。
A.判别器模型梯度更新依赖于生成器模型
B.生成器模型梯度更新依赖于判别器模型
C.根据输入数据的特征,预测输入数据的标签
D.生成器和判别器不可以是神经网络模型
A.判别器模型梯度更新依赖于生成器模型
B.生成器模型梯度更新依赖于判别器模型
C.根据输入数据的特征,预测输入数据的标签
D.生成器和判别器不可以是神经网络模型
A.生成器可以由Autoencoder实现
B.生成器用来产生带有随机噪声的一定分布数据和真实样本数据的映射关系,判别器用来区别实际数据和生成器产生的数据
C.生成器和判别器需要交替训练,不断增加两者的性能,直至达到某种博弈的平衡
D.生成器和判别器的代价函数在训练过程中是同时优化的
A.主要工作在网络层和传输层
B.可以支持路由转发功能
C.支持自动学习后生成拦截动作
D.一般有处理速度快,价格便宜的优点
A.增加网络层数,可能会增加测试集分类错误率
B.增加网络层数,一定会增加训练集分类错误率
C.减少网络层数,可能会减少测试集分类错误率
D.减少网络层数,一定会减少训练集分类错误率
A.在随机森林的单个树中,树和树之间是有依赖的,而GBDT中的单个树之间是没有依赖的
B.这两个模型都使用随机特征子集,来生成许多单个的树
C.我们可以并行地生成GBDT单个树,因为它们之间是没有依赖的
D.GBDT训练模型的表现总是比随机森林好
A.损失函数值越大,模型越不精准
B.当使用均方差损失函数时,网络层数越深,训练收敛速度变慢
C.损失函数值越大,模型越精准
D.当使用交叉熵损失函数时,误差越大,训练收敛速度变慢
A.标准BP算法每次仅针对一个训练样例更新连接权和阈值
B.BP神经网络经常遭遇过拟合
C.早停策略可用来缓解BP网络的过拟合问题
D.晚停策略可用来缓解BP网络的欠拟合问题