可做奥鹏院校所有作业,毕业论文,咨询请添加QQ:3230981406 微信:aopopenfd777[南开大学]20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数

可做奥鹏全部院校在线离线作业毕业论文QQ:3230981406 微信:aopopenfd777

发布时间:2020-10-20 22:09:29来源:admin浏览: 29 次

可做奥鹏院校所有作业,毕业论文,咨询请添加QQ:3230981406      微信:aopopenfd777


[南开大学]20秋学期(1709、1803、1809、1903、1909、2003、2009 )《数据科学导论》在线作业
试卷总分:100    得分:100
第1题,对于k近邻法,下列说法错误的是()。
A、不具有显式的学习过程
B、适用于多分类任务
C、k值越大,分类效果越好
D、通常采用多数表决的分类决策规则
正确答案:


第2题,以下哪个不是处理缺失值的方法()
A、删除记录
B、按照一定原则补充
C、不处理
D、随意填写
正确答案:


第3题,在一元线性回归模型中,残差项服从()分布。
A、泊松
B、正态
C、线性
D、非线性
正确答案:


第4题,一元线性回归中,真实值与预测值的差称为样本的()。
A、误差
B、方差
C、测差
D、残差
正确答案:


答案来源:(www.),Apriori算法的加速过程依赖于以下哪个策略(  )
A、抽样
B、剪枝
C、缓冲
D、并行
正确答案:


第6题,数据库中相关联的两张表都存储了用户的个人信息,但在用户的个人信息发生改变时只更新了一张表中的数据,这时两张表中就有了不一致的数据,这属于()
A、异常值
B、缺失值
C、不一致的值
D、重复值
正确答案:


第7题,单层感知机模型属于()模型。
A、二分类的线性分类模型
B、二分类的非线性分类模型
C、多分类的线性分类模型
D、多分类的非线性分类模型
正确答案:


第8题,层次聚类适合规模较()的数据集
A、大
B、中
C、小
D、所有
正确答案:


第9题,通过构造新的指标-线损率,当超出线损率的正常范围, 则可以判断这条线路的用户可能存在窃漏电等异常行为属于数据变换中的()
A、简单函数变换
B、规范化
C、属性构造
D、连续属性离散化
正确答案:


答案来源:(www.),例如将工资收入属性值映射到[-1,1]或者[0,1]内属于数据变换中的()
A、简单函数变换
B、规范化
C、属性构造
D、连续属性离散化
正确答案:


第11题,在有统计学意义的前提下,标准化偏回归系数的绝对值越大,说明相应的自变量对y的作用()。
A、越小
B、越大
C、无关
D、不确定
正确答案:


答案来源:(www.),考虑下面的频繁3-项集的集合:{1,2,3},{1,2,4},{1,2,5},{1,3,4},{1,3,5},{2,3,4},{2,3,5},{3,4,5}假定数据集中只有5个项,采用 合并策略,由候选产生过程得到4-项集不包含()
A、1,2,3,4
B、1,2,3,5
C、1,2,4,5
D、1,3,4,5
正确答案:


第13题,具有偏差和至少()个S型隐含层加上一个()输出层的网络能够逼近任何有理数。
A、1,线性
B、2,线性
C、1,非线性
D、2,非线性
正确答案:


第14题,实体识别属于以下哪个过程()
A、数据清洗
B、数据集成
C、数据规约
D、数据变换
正确答案:


答案来源:(www.),通过变量标准化计算得到的回归方程称为()。
A、标准化回归方程
B、标准化偏回归方程
C、标准化自回归方程
D、标准化多回归方程
正确答案:


第16题,我们需要对已生成的树()进行剪枝,将树变得简单,从而使它具有更好的泛化能力。
A、自上而下
B、自下而上
C、自左而右
D、自右而左
正确答案:


第17题,聚类是一种()。
A、有监督学习
B、无监督学习
C、强化学习
D、半监督学习
正确答案:


第18题,利用最小二乘法对多元线性回归进行参数估计时,其目标为()。
A、最小化方差#最小化标准差
B、最小化残差平方和
C、最大化信息熵
正确答案:


第19题,实体识别的常见形式()
A、同名异义
B、异名同义
C、单位不统一
D、属性不同
正确答案:


答案来源:(www.),以下哪一项不属于数据变换()
A、简单函数变换
B、规范化
C、属性合并
D、连续属性离散化
正确答案:


第21题,距离度量中的距离可以是()
A、欧式距离
B、曼哈顿距离
C、Lp距离
D、Minkowski距离
正确答案:,B,C,D


第22题,Apriori算法的计算复杂度受()影响。
A、支持度阈值
B、项数
C、事务数
D、事务平均宽度
正确答案:,B,C,D


第23题,K-means聚类中K值选取的方法是()。
A、密度分类法
B、手肘法
C、大腿法
D、随机选取
正确答案:,B


第24题,聚类的主要方法有()。
A、划分聚类
B、层次聚类
C、密度聚类
D、距离聚类
正确答案:,B,C


答案来源:(www.),对于多层感知机,()层拥有激活函数的功能神经元。
A、输入层
B、隐含层
C、输出层
正确答案:,C


第26题,什么情况下结点不用划分()
A、当前结点所包含的样本全属于同一类别
B、当前属性集为空,或是所有样本在所有属性上取值相同
C、当前结点包含的样本集为空
D、还有子集不能被基本正确分类
正确答案:,B,C


第27题,下列选项是BFR的对象是()
A、废弃集
B、临时集
C、压缩集
D、留存集
正确答案:,C,D


第28题,系统日志收集的基本特征有()
A、高可用性
B、高可靠性
C、可扩展性
D、高效率
正确答案:,B,C


第29题,下面例子属于分类的是()
A、检测图像中是否有人脸出现
B、对客户按照贷款风险大小进行分类
C、识别手写的数字
D、估计商场客流量
正确答案:,B,C


答案来源:(www.),k近邻法的基本要素包括()。
A、距离度量
B、k值的选择
C、样本大小
D、分类决策规则
正确答案:,B,D


第31题,一般而言,信息增益越大,则意味着使用属性a来进行划分所获得的"纯度提升越大",因此我们可用信息增益来进行决策树的最优特征选择。
T、对
F、错
更多答案下载:(www.)


第32题,给定一个数据集,如果存在某个超平面S能够将数据集的部分正实例点和负实例点正确的划分到超平面的两侧,则称该数据集是线性可分数据集。
T、对
F、错
正确答案:F


第33题,Pearson相关系数是判断特征之间、以及特征和目标变量之间线性相关关系的统计量。
T、对
F、错
更多答案下载:(www.)


第34题,特征选择和降维都是用于减少特征数量,进而降低模型复杂度、防止过度拟合。
T、对
F、错
更多答案下载:(www.)


第35题,两个对象越相似,他们的相异度就越高。
T、对
F、错
正确答案:F


第36题,朴素贝叶斯分类器有简单、高效、健壮的特点,但某些属性可能会降低分类器的性能
T、对
F、错
更多答案下载:(www.)


第37题,获取数据为数据分析提供了素材和依据,这里的数据只包括直接获取的数据。
T、对
F、错
正确答案:F


第38题,选择较小的k值,相当于用较小的邻域中的训练实例进行预测,学习的"近似误差"会减小,"估计误差"会增大,预测结果会对近邻的点实例点非常敏感。
T、对
F、错
更多答案下载:(www.)


第39题,K均值(K-Means)算法是密度聚类。
T、对
F、错
正确答案:F


第40题,K-means算法采用贪心策略,通过迭代优化来近似求解。
T、对
F、错
更多答案下载:(www.)


第41题,赤池信息准则是衡量统计模型拟合优良性的一种标准。
T、对
F、错
正确答案:


第42题,平均减少的不纯度越大,则特征重要度越高。
T、对
F、错
更多答案下载:(www.)


第43题,标准BP算法是在读取全部数据集后,对参数进行统一更新的算法。
T、对
F、错
正确答案:F


第44题,子集产生本质上是一个搜索过程,该过程可以从空集、随机产生的一个特征子集或者整个特征集开始。
T、对
F、错
更多答案下载:(www.)


第45题,数据科学具有广泛的应用领域,可以应用在社交网络、职业体育、政治竞选
T、对
F、错
正确答案:


第46题,探索性数据分析的特点是研究从原始数据入手,完全以实际数据为依据。
T、对
F、错
更多答案下载:(www.)


第47题,决策树学习的算法通常是一个递归地选择最优特征,并根据该特征对训练数据进行分割,使得各个子数据集有一个最好的分类的过程,这一过程对应着特征空间的划分,也对应着决策树的构建
T、对
F、错
更多答案下载:(www.)


第48题,给定关联规则A→B,意味着:若A发生,B也会发生。
T、对
F、错
正确答案:F


第49题,信息熵越大,数据信息的不确定性越小。
T、对
F、错
正确答案:F


答案来源:(www.),对于分类数据,经常使用表格,来统计各种类别的数据出现的频率。
T、对
F、错
更多答案下载:(www.)














作业咨询 论文咨询
微信客服扫一扫

回到顶部