首页 > 外语类考试
题目内容 (请给出正确答案)
[单选题]

如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模型,下列哪种做法是正确的()。

A.增加树的深度

B.增加学习率

C.减小树的深度

D.减少树的数量

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“如果在大型数据集上训练决策树。为了花费更少的时间来训练这个模…”相关的问题
第1题
决策树递归停止的条件为()。

A.训练数据集使用完

B.所有的类标签完全相同

C.特征用完

D.遇到丢失值

点击查看答案
第2题
关于bagging下列说法错误的是:()。

A.各基分类器之间有较强依赖,不可以进行并行训练

B.最著名的算法之一是基于决策树基分类器的随机森林

C.当训练样本数量较少时,子集之间可能有重叠

D.为了让基分类器之间互相独立,需要将训练集分为若干子集

点击查看答案
第3题
假设我们拥有一个已完成训练的、用来解决车辆检测问题的深度神经网络模型,训练所用的数据集由汽车和卡车的照片构成,而训练目标是检测出每种车辆的名称(车辆共有10种类型)。现在想要使用这个模型来解决另外一个问题,问题数据集中仅包含一种车(福特野马)而目标变为定位车辆在照片中的位置()。

A.除去神经网络中的最后一层,冻结所有层然后重新训练

B.对神经网络中的最后几层进行微调,同时将最后一层(分类层)更改为回归层

C.使用新的数据集重新训练模型

D.所有答案均不对

点击查看答案
第4题
随机森林的随机性主要体现在()。

A.决策树选择的随机性

B.数据集的随机性

C.待选特征的随机性

D.参数选择的随机性

点击查看答案
第5题
下列关于误差的说法,正确的是()。

A.训练样本容量增加,泛化误差也会增加

B.过拟合指数据在训练集上的误差过大

C.过拟合可以通过减少模型参数数量解决

D.交叉验证不重复使用数据

点击查看答案
第6题
我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,如何有效地训练模型()。

A.对训练集随机采样,在随机采样的数据上建立模型

B.尝试使用在线机器学习算法

C.使用PCA算法减少特征维度

点击查看答案
第7题
我们想要减少数据集中的特征数,即降维.选择以下适合的方案:()。

A.使用前向特征选择方法

B.使用后向特征排除方法

C.我们先把所有特征都使用,去训练一个模型,得到测试集上的表现.然后我们去掉一个特征,再去训练,用交叉验证看看测试集上的表现.如果表现比原来还要好,我们可以去除这个特征

D.查看相关性表,去除相关性最高的一些特征

点击查看答案
第8题
决策树()情况下会导致递归返回。

A.当前节点包含的样本全属于同一类

B.当前属性集为空

C.当前节点包含的样本集合为空

D.所有样本在所有属性上取值相同

点击查看答案
第9题
预剪枝决策树其训练时间开销比后剪枝决策树要大得多。()
点击查看答案
第10题
机器学习对噪音数据具有高承受能力,并能对未经过训练的数据具有分类能力,但其需要很长的训练时间,因而对于有足够长训练时间的应用更合适。()
点击查看答案
第11题
数据规约就是为了压缩数据量,帮助从原有庞大数据集中获得一个精简的数据集合,并使这一精简数据集保持原有数据集的完整性。()
点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改