APP下载
首页
>
财会金融
>
唐人街探案之秦风
搜索
唐人街探案之秦风
题目内容
(
多选题
)
Linux中常用的几种压缩工具()

A、winzip

B、tar

C、gzip

D、compress

答案:BCD

唐人街探案之秦风
()就是让机器通过处理和识别过程,把语音信号转变为相应的文本或信息的高技术。
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-c778-c07f-52a228da6000.html
点击查看题目
产生式系统的推理不包括()
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-90c8-c07f-52a228da6003.html
点击查看题目
反向传播算法中需要先计算靠近输入层参数的梯度,再计算靠近输出层参数的梯
度。
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4cd0-c07f-52a228da6017.html
点击查看题目
将一质地均匀的正方体骰子掷一次,观察向上一面的点数,与点数2的差不大于1的概率是( )
https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5178-c07f-52a228da6001.html
点击查看题目
已知x=[3,5,7],那么表达式x[-1::-1]的值为( )。
https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-7fd0-c07f-52a228da6001.html
点击查看题目
关于线性回归的描述,以下正确的有()
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0680-c07f-52a228da6006.html
点击查看题目
哪些项属于集成学习
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-21d8-c07f-52a228da601e.html
点击查看题目
在处理序列数据时,较容易出现梯度消失现象的模型是()
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0680-c07f-52a228da6012.html
点击查看题目
以下哪些是常见的神经网络()?
https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-d330-c07f-52a228da6016.html
点击查看题目
在函数中,传入数字、字符或者元组等不可变对象属于值传递
https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-a6e0-c07f-52a228da601e.html
点击查看题目
首页
>
财会金融
>
唐人街探案之秦风
题目内容
(
多选题
)
手机预览
唐人街探案之秦风

Linux中常用的几种压缩工具()

A、winzip

B、tar

C、gzip

D、compress

答案:BCD

分享
唐人街探案之秦风
相关题目
()就是让机器通过处理和识别过程,把语音信号转变为相应的文本或信息的高技术。

A. 语音分析技术

B. 语音转化技术

C. 语音合成技术

D. 语音识别技术

解析:语音识别技术就是让机器通过处理和识别过程,把语音信号转变为相应的文本或信息的高技术。

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-c778-c07f-52a228da6000.html
点击查看答案
产生式系统的推理不包括()

A. 正向推理

B. 逆向推理

C. 双向推理

D. 简单推理

解析:概念理解

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-90c8-c07f-52a228da6003.html
点击查看答案
反向传播算法中需要先计算靠近输入层参数的梯度,再计算靠近输出层参数的梯
度。
https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-4cd0-c07f-52a228da6017.html
点击查看答案
将一质地均匀的正方体骰子掷一次,观察向上一面的点数,与点数2的差不大于1的概率是( )

A. 1/2

B. 1/3

C. 2/3

D. 5/6

解析:【分析】
根据正方体骰子共有6个面,通过观察向上一面的点数,即可得到与点数2的差不大于1的概率.
【详解】
∵正方体骰子共6个面,
每个面上的点数分别为1、2、3、4、5、6,
∴与点数2的差不大于1的有1、2、3.
∴与点数2的差不大于1的概率是 .
故选:A

https://www.shititong.cn/cha-kan/shiti/0005e9f1-2242-5178-c07f-52a228da6001.html
点击查看答案
已知x=[3,5,7],那么表达式x[-1::-1]的值为( )。

A. [3]

B. [5,3]

C. [7,5]

D. [7,5,3]

https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-7fd0-c07f-52a228da6001.html
点击查看答案
关于线性回归的描述,以下正确的有()

A. 基本假设包括随机干扰项是均值为0,方差为1的标准正态分布

B. 基本假设包括随机干扰项是均值为0的同方差正态分布

C. 多重共线性会使得参数估计值方差减小

D. 基本假设包括不服从正态分布的随机干扰项

解析:线性回归的基本假设是随机干扰项是均值为0的同方差正态分布

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0680-c07f-52a228da6006.html
点击查看答案
哪些项属于集成学习

A. Knn

B. Adaboost

C. 随机森林

D. XGBoost

解析:集成学习方法大致可分为两大类:即个体学习器间存在强依赖关系,必须串行生成的序列化方法以及个体学习器间不存在强依赖关系、可同时生成的并行化方法;前者代表是 Boosting ,后者代表是 Bagging 和“ 随机森林 ”

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-21d8-c07f-52a228da601e.html
点击查看答案
在处理序列数据时,较容易出现梯度消失现象的模型是()

A. CNN

B. RNN

C. GRU

D. LSTM

解析:在处理序列数据时,较容易出现梯度消失现象的模型是RNN

https://www.shititong.cn/cha-kan/shiti/0005e9f2-4769-0680-c07f-52a228da6012.html
点击查看答案
以下哪些是常见的神经网络()?

A. RBF网络

B. RIO网络

C. ART网络

D. SQM网络

https://www.shititong.cn/cha-kan/shiti/0005e9e7-291f-d330-c07f-52a228da6016.html
点击查看答案
在函数中,传入数字、字符或者元组等不可变对象属于值传递
https://www.shititong.cn/cha-kan/shiti/0005e9f0-78bb-a6e0-c07f-52a228da601e.html
点击查看答案
试题通小程序
试题通app下载