APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
单选题
)
检索的()和基于反事实学习的检索和推荐模型已经成为信息检索领域重要的研究方向

A、公平性

B、真实性

C、快速性

D、准确性

答案:A

解析:检索的公平性和基于反事实学习的检索和推荐模型已经成为信息检索领域重要的研究方向

唐人街探案之秦风
“数字孪生(Digital Twin)”这一概念被美国()教授提出。
https://www.shititong.cn/cha-kan/shiti/0005ea1f-b051-9a68-c027-a9ed70c95408.html
点击查看题目
奥卡姆剃刀(Occam'srazor)是一种常用的、自然科学研究中最基本的原则,即“若有多个假设与观察一致,则选最简单的那个”。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-e2d0-c07f-52a228da6034.html
点击查看题目
下列哪个模型属于无监督学习
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-c390-c07f-52a228da6007.html
点击查看题目
计算机内部总线分为( )
https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-8f70-c07f-52a228da6015.html
点击查看题目
我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,有效地训练模型可以采取的措施是()。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-c778-c07f-52a228da601d.html
点击查看题目
关于SMO神经网络描述错误的是
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-94b0-c07f-52a228da6011.html
点击查看题目
贝叶斯网学习而言,模型就是一个贝叶斯网,每个贝叶斯网描述了一个在训练数据上的概率分布
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6036.html
点击查看题目
学习器在训练集上的误差称为“泛化误差”。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-e2d0-c07f-52a228da601c.html
点击查看题目
哪些是XGBoost与GBDT相比具有的优点?
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3560-c07f-52a228da6000.html
点击查看题目
下列关于测试集,正确的是()。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-cf48-c07f-52a228da6010.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
单选题
)
手机预览
唐人街探案之秦风

检索的()和基于反事实学习的检索和推荐模型已经成为信息检索领域重要的研究方向

A、公平性

B、真实性

C、快速性

D、准确性

答案:A

解析:检索的公平性和基于反事实学习的检索和推荐模型已经成为信息检索领域重要的研究方向

分享
唐人街探案之秦风
相关题目
“数字孪生(Digital Twin)”这一概念被美国()教授提出。

A. Michael Arbib

B. Edward Albert Feigenbaum

C. Michael Grieves

D. Arthur Samuel

解析:   早在2002年,“数字孪生(Digital Twin)”这一概念被美国Michael Grieves教授提出。

https://www.shititong.cn/cha-kan/shiti/0005ea1f-b051-9a68-c027-a9ed70c95408.html
点击查看答案
奥卡姆剃刀(Occam'srazor)是一种常用的、自然科学研究中最基本的原则,即“若有多个假设与观察一致,则选最简单的那个”。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-e2d0-c07f-52a228da6034.html
点击查看答案
下列哪个模型属于无监督学习

A. KNN分类

B. 逻辑回归

C.
DBSCAN

D. 决策树

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-c390-c07f-52a228da6007.html
点击查看答案
计算机内部总线分为( )

A. 数据总线

B. 地址总线

C. 网络总线

D. 控制总线

https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-8f70-c07f-52a228da6015.html
点击查看答案
我们想要训练一个ML模型,样本数量有100万个,特征维度是5000,面对如此大数据,有效地训练模型可以采取的措施是()。

A. 对训练集随机采样,在随机采样的数据上建立模型$;$尝试使用在线机器学习算法$;$使用 PCA算法减少特征维度

解析:基础概念理解

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-c778-c07f-52a228da601d.html
点击查看答案
关于SMO神经网络描述错误的是

A. 一种竞争学习型的无监督神经网络

B. 将高维输入数据映射到低维空间,保持输入数据在高维空间的拓扑结构

C. SMO寻优目标为每个输出神经元找到合适的权重

D. 输出层神经元以矩阵方式排列在二维空间

解析:SOM 的训练目标就是为每个输出层神经元找到合适的权向量,以达到保持拓扑结构的目的

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-94b0-c07f-52a228da6011.html
点击查看答案
贝叶斯网学习而言,模型就是一个贝叶斯网,每个贝叶斯网描述了一个在训练数据上的概率分布

解析:正确

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6036.html
点击查看答案
学习器在训练集上的误差称为“泛化误差”。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-e2d0-c07f-52a228da601c.html
点击查看答案
哪些是XGBoost与GBDT相比具有的优点?

A. 损失函数是用泰勒展式二项逼近,而GBDT只是一阶导数$;$对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;$节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的$;$XGBoost使用网格搜索,只能检测有限个值

解析:XGBoost类似于GBDT的优化版,不论是精度还是效率上都有了提升。与GBDT相比,具体的优点有:
1.损失函数是用泰勒展式二项逼近,而不是像GBDT里的就是一阶导数;
2.对树的结构进行了正则化约束,防止模型过度复杂,降低了过拟合的可能性;
3.节点分裂的方式不同,GBDT是用的基尼系数,XGBoost是经过优化推导后的。

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-3560-c07f-52a228da6000.html
点击查看答案
下列关于测试集,正确的是()。

A. 不管数据大小,始终保持30%作为测试集

B. 测试集和验证集不能共存

C. 在数据规模较小时,可以保留30%测试集

D. 测试集不必占用数据集的30%,能够保证对模型的考核即可

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-cf48-c07f-52a228da6010.html
点击查看答案
试题通小程序
试题通app下载