()函数一般用在多分类问题中,它是对逻辑斯蒂回归logistic的一种推广,也被称为多项式逻辑斯蒂回归模型。
A. Relu
B. softmax
C. Tanh
D. sigmoid
解析:softmax函数一般用在多分类问题中,它是对逻辑斯蒂回归logistic的一种推广,也被称为多项式逻辑斯蒂回归模型。
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0e50-c07f-52a228da601f.html
点击查看答案
知识图谱的众多存储方案中,属性表存储克服了三元组表的自连接问题,同时解决了水平表中列数过多的问题。
https://www.shititong.cn/cha-kan/shiti/0005e9f8-7427-2548-c07f-52a228da6032.html
点击查看答案
关于概率图,以下说法正确的是()
A. 概率图模型提供一种直观,快速的针对具体问题定义模型的方式
B. 概率图能让建模者根据对问题的理解确定特征之间的依赖关系
C. 有向图利用条件概率来表示
D. 无向图利用每个最大团的优势来表示
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5948-c07f-52a228da6010.html
点击查看答案
CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习率的说法,错误的是()
A. 学习率太小,更新速度慢
B. 学习率过大,可能跨过最优解
C. 学习率也是有网络学习而来
D. 学习率可在网络训练过程中更改
解析:CNN网络设计中,学习率的设置往往对训练收敛起到关键作用,关于学习率的说法,错误的是学习率也是有网络学习而来
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0e50-c07f-52a228da6019.html
点击查看答案
某数据框df需要进行多条件筛选, 其一般性语法为
A. df.loc[(筛选条件1) && (筛选条件2)]
B. df.loc[(筛选条件1) 且 (筛选条件2)]
C. df.loc[(筛选条件1) and (筛选条件2)]
D. df.loc[(筛选条件1) & (筛选条件2)]
解析:pandas中多条件筛选条件之间用&连接
https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-7030-c07f-52a228da6010.html
点击查看答案
下面对人类智能和机器智能的描述哪一句是不正确的
A. 人类智能能够自我学习,机器智能大多是依靠数据和规则驱动
B. 人类智能具有自适应特点,机器智能则大多是“依葫芦画瓢”
C. 人类智能和机器智能均具备常识,因此能够进行常识性推理
D. 人类智能具备直觉和顿悟能力,机器智能很难具备这样的能力
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-bfa8-c07f-52a228da6016.html
点击查看答案
[[[1.3688, 1.0125]], [[0.1747, -0.022463]]]张量的维度为()。
A. (2,2)
B. (1,2,2)
C. (4,1)
D. (2,1,2)
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5560-c07f-52a228da6002.html
点击查看答案
参数学习过程中若采用梯度下降法,梯度为负:()W,梯度为正:()W
解析:见算法解析
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4118-c07f-52a228da6021.html
点击查看答案
高方差是指模型过拟合了,导致在测试集中的泛化能力较差。
解析:正确
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-48e8-c07f-52a228da6018.html
点击查看答案
关于集成学习,以下说法错误的是
A. 集成学习一定能提升个体学习器的性能
B. Bagging 方法中,个体学习器之间彼此独立
C. Boosting 是一种重视错误样本的学习方法
D. Boosting 方法中,个体学习器存在强依赖
解析:见算法解析
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4768-df70-c07f-52a228da6000.html
点击查看答案