对应课程:点击查看
起止时间:2021-02-25到2021-06-30
更新状态:每5天更新一次
第一讲 深度学习概述 第一讲测验
1、 机器学习(深度学习)系统中通常将数据集划分为训练集和测试集,其中被用来学习得到系统的参数取值的是
A:训练集(training set)
B:测试集(testing set)
C:训练集(training set)和测试集(testing set)
D:其它答案都不对
答案: 训练集(training set)
2、 k折交叉验证通常将数据集随机分为k个子集。下列关于k折交叉验证说法错误的是
A:每次将其中一个子集作为测试集,剩下k-1个子集作为训练集进行训练
B:每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
C:划分时有多种方法,例如对非平衡数据可以用分层采样,就是在每一份子集中都保持和原始数据集相同的类别比例
D:k折交叉验证相对于留出法,其性能评价结果通常要相对更稳定一些
答案: 每次将其中一个子集作为训练集,剩下k-1个子集作为测试集进行测试
3、 ROC (受试者工作特征曲线, receiver operating characteristic curve)描绘了分类器在 fp rate (错误的正例,横轴) 和tp rate(真正正例,纵轴) 间的trade-off(权衡)。下面说法正确的是:
A:(纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
B:(纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率高
C: (纵轴)敏感性高=漏诊率高, 而(横轴)特异性低=误诊率低
D: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率低
答案: (纵轴)敏感性高=漏诊率低, 而(横轴)特异性低=误诊率高
4、 关于 Cohen’ s kappa取值的含义,下列错误的是:
A:其取值通常在-1和+1之间
B:其取值为+1,说明一致性最好
C:其取值越大,说明一致性越好
D:其取值越小,说明一致性越好
答案: 其取值越小,说明一致性越好
5、 下列关于验证集(validation set)的描述错误的是
A:某些情况下,可以对训练集做进一步划分,即分为训练集和验证集
B:验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
C: 验证集与测试集之间的区别是,验证集主要用于模型选择和调整超参数,因而一般不用于报告最终结果
D:验证集的数据规模通常小于训练集的数据规模
答案: 验证集与测试集类似,也是用于评估模型的性能。且可以用于报告模型的最终评价结果
6、 下面关于机器学习与深度学习的描述错误的是:
A:深度学习是机器学习的重要分支
B:深度学习来源于人工神经网络
C:深度学习是多层的人工神经网络,典型的模型包括卷积神经网络等
D:其它答案都不对
答案: 其它答案都不对
7、 下面关于有监督学习、无监督学习的描述错误的是
A:有监督学习是从有正确答案的样本集合中学习,即每个样本的分类标签(classification label)或者目标值(target value)已知
B:无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
C:有监督学习中样本的ground truth指的是每个样本的真实分类标签(classification label)或者真实目标值(target value)
D:为了获得有监督学习中样本的真实分类标签(classification label)或者真实目标值(target value),某些情况下,可以采用人工专家标注的方法获得
答案: 无监督学习的训练学习过程中也利用到了每个样本的分类标签(classification label)或者目标值(target value)
8、 假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则其ROC曲线的横轴FP Rate 和纵轴TP Rate 的坐标值是多少? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
A:横轴FP Rate=0.57; 纵轴TP Rate=0.33
B:横轴FP Rate=0.33; 纵轴TP Rate=0.57
C:横轴FP Rate=0.57; 纵轴TP Rate=0.57
D:横轴FP Rate=0.80; 纵轴TP Rate=0.33
答案: 横轴FP Rate=0.33; 纵轴TP Rate=0.57
9、 下面的一段python程序是对iris数据集进行训练集合测试集的拆分,已知该数据集中样本的个数为150个,特征为4个。则下面的程序执行完毕后,print语句的输出结果应该为: from sklearn import cross_validation from sklearn import datasets iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )print (“X_train.shape:”, X_train.shape, “y_train.shape:”, y_train.shape)
A: (‘X_train.shape:’, (150, 4), ‘y_train.shape:’, (150,))
B: (‘X_train.shape:’, (90, 4), ‘y_train.shape:’, (90,))
C:(‘X_train.shape:’, (30, 4), ‘y_train.shape:’, (30,))
D: (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))
答案: (‘X_train.shape:’, (120, 4), ‘y_train.shape:’, (120,))
10、 下面的一段python程序是使用支持向量机在iris数据集上进行训练的例子,且该程序已经导入了必要的模块(用省略号表示)。则程序中空格处应该填充的拟合函数是: ……iris = datasets.load_iris() X_train, X_test, y_train, y_test = cross_validation.train_test_split(iris.data, iris.target, test_size=0.2 )clf = svm.SVC(kernel=’linear’, C=1). (X_train, y_train)
A:train
B:fit
C:learn
D:ml
答案: fit
11、 下面的一段程序是标签二值化的示例程序,则最后的print语句的输出应该为:from sklearn.preprocessing import label_binarizey=[0, 1, 2]print (y)y = label_binarize(y, classes=[0, 1, 2])print (y)
A:[[0 0 1] [0 1 0] [1 0 0]]
B:[[1 0 0][1 0 0] [1 0 0]]
C:[[0 0 1] [0 0 1] [0 0 1]]
D:[[1 0 0] [0 1 0] [0 0 1]]
答案: [[1 0 0] [0 1 0] [0 0 1]]
12、 F值的定义为准确率和召回率的调和平均。如果二者(即准确率和召回率)同等重要,则为
A:F1
B:F2
C:F0.5
D:F3
答案: F1
13、 超参数和参数的区别。参数一般是模型需要根据训练数据可以自动学习出的变量。超参数一般就是根据经验确定预设的变量。下面哪些是超参数?
A:深度学习模型的权重,偏差
B:深度学习的学习速率、人工神经网络的层数
C:深度学习的迭代次数
D:深度学习的每层神经元的个数
答案: 深度学习的学习速率、人工神经网络的层数;
深度学习的迭代次数;
深度学习的每层神经元的个数
14、 关于ROC (受试者工作特征曲线, receiver operating characteristic curve)中AUC(Area Under Curve)说法正确的是
A:定义为ROC曲线下的面积
B:AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好
C:取值范围为[0,1]
D:其它答案都不对
答案: 定义为ROC曲线下的面积;
AUC值提供了分类器的一个整体数值。通常AUC越大,分类器更好;
取值范围为[0,1]
15、 关于 Cohen’ s kappa 和Fleiss’ kappa的区别:
A:Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement)
B:如果评价者多于2人时,可以考虑使用Fleiss’ kappa
C:二者没有本质区别,可以等价
D:其它答案都不对
答案: Cohen’s kappa主要用于衡量两个评价者( raters )之间的一致性(agreement);
如果评价者多于2人时,可以考虑使用Fleiss’ kappa
16、 下面关于使用网格搜索进行超参数的调优的描述正确的是:
A:假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值
B:为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合
C:假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0, 0.5, 1.0}
D:其它答案都不对
答案: 假设模型中有两个超参数(A, B)。则网格搜索的基本原理就是尝试各种可能的(A, B)对值,并找到其中最好的(A, B)对值;
为了使用网格搜索进行超参数的调优,通常可以进行交叉验证的方式,并找出使交叉验证性能最高的超参数取值的组合;
假设模型中某个超参数B的可能取值为连续的,如在区间[0-1]。由于B值为连续,通常进行离散化,如变为{0, 0.5, 1.0}
17、 下面关于分类(classification)和回归(regression)的区别和联系的描述正确的是:
A:分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的
B:分类和回归问题通常都是有监督学习的范畴
C:回归问题需要预测连续变量的数值:比如预测新产品的销量等
D:可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
答案: 分类的目的是预测出新样本的类型、种类或标签,即其输出值是离散的;
分类和回归问题通常都是有监督学习的范畴;
回归问题需要预测连续变量的数值:比如预测新产品的销量等;
可以将回归的输出值通过设定阈值等方式进行离散化处理,从而用于分类
18、 下列关于scikit-learn的描述正确的是
A:scikit-learn包括许多知名的机器学习算法的实现,包括SVM等
B:scikit-learn封装了其他的Python库,如自然语言处理的NLTK库
C:scikit-learn内置了大量数据集,如iris数据集等
D:scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
答案: scikit-learn包括许多知名的机器学习算法的实现,包括SVM等;
scikit-learn封装了其他的Python库,如自然语言处理的NLTK库;
scikit-learn内置了大量数据集,如iris数据集等;
scikit-learn实现了多种分类的评估方法,如准确率、精确率、召回率等
19、 已知如下定义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。 则下面定义正确的是:
A:分类准确率 Accuracy=(TP+TN)/(P+N)
B:精确率 Precision=TP/(TP+FP)
C:召回率 Recall=TP/P
D:召回率 Recall=TN/P
答案: 分类准确率 Accuracy=(TP+TN)/(P+N);
精确率 Precision=TP/(TP+FP);
召回率 Recall=TP/P
20、 测试集(testing set)用于最终报告模型的评价结果,因此在训练阶段测试集中的数据一般可以出现在训练集中.
A:正确
B:错误
答案: 错误
21、 假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的精确率是 (要求:用小数表示,且保留小数点后两位)? 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
答案: 0.80
22、 假设测试数据集中共计有70个正类样本,30个负类样本。且某次分类结果如下表所示(表中各项的含义如表下方的注释所示)。则分类的召回率是 (要求:用小数表示,且保留小数点后两位)。 实际类别预测类别 正例负例总计正例TP=40FN=30P(实际为正例)=70负例FP=10TN=20N(实际为负例)=30表中数据项的含义:True positives(TP): 被正确地划分为正例的个数,即实际为正例且被分类器划分为正例的实例数(样本数);False negatives(FN):被错误地划分为负例的个数,即实际为正例但被分类器划分为负例的实例数;False positives(FP): 被错误地划分为正例的个数,即实际为负例但被分类器划分为正例的实例数;True negatives(TN): 被正确地划分为负例的个数,即实际为负例且被分类器划分为负例的实例数。
答案: 0.57
23、 下面的一段python程序是计算并输出y_true和y_pred之间的平均绝对误差,即MAE,则其中print语句的输出结果为 (要求:用小数表示,且保留小数点后两位)。 from sklearn.metrics import mean_absolute_errory_true = [3, -0.5, 2, 7]y_pred = [2.5, 0.0, 2, 9]print (mean_absolute_error(y_true, y_pred))
答案: 0.75
为了方便下次阅读,建议在浏览器添加书签收藏本网页
添加书签方法:
1.电脑按键盘的Ctrl键+D键即可收藏本网页
2.手机浏览器可以添加书签收藏本网页
获取更多MOOC答案,欢迎在浏览器访问我们的网站:http://mooc.mengmianren.com
注:请切换至英文输入法输入域名,如果没有成功进入网站,请输入完整域名:http://mooc.mengmianren.com/
我们的公众号
打开手机微信,扫一扫下方二维码,关注微信公众号:萌面人APP
本公众号可查看各种网课答案,还可免费查看大学教材答案
点击这里,可查看公众号功能介绍
一键领取淘宝,天猫,京东,拼多多无门槛优惠券,让您购物省省省,点击这里,了解详情
干饭人福利,饿了么红包每日领