APP下载
首页
>
IT互联网
>
随便搞的题库做做
搜索
随便搞的题库做做
题目内容
(
判断题
)
人工智能发展历程的第一次热潮是20世纪50年代神经网络相关基础理论的提出。

答案:A

随便搞的题库做做
“数据的故事化描述”是指为了提升数据的()和(),将数据还原成关联至特定的情景的过程。
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd2-0498-c07f-52a228da6008.html
点击查看题目
输入图片大小为200×200,依次经过一层卷积(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一层卷积(kernelsize3×3,padding1,stride1)之后,输出特征图大小为
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-e268-c07f-52a228da601e.html
点击查看题目
仿生算法是一类模拟自然生物进化或者群体社会行为的随机搜索方法的统称。()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-ea38-c07f-52a228da601d.html
点击查看题目
机器人之父是指艾伦·图灵
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-ed28-c07f-52a228da602f.html
点击查看题目
已知x=[3,5,7],那么表达式x[-1::-1]的值为( )。
https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-f508-c07f-52a228da6010.html
点击查看题目
可以有效解决过拟合的方法包括()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da601b.html
点击查看题目
DSSM经典模型的优点有()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-0590-c07f-52a228da6026.html
点击查看题目
对于较长的序列数据,使用()可以大大提升循环神经网络处理能力。
https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-99e0-c07f-52a228da601c.html
点击查看题目
在训练神经网络过程中我们目的是让损失函数不断减小,我们常用以下哪种方法最小化损失函数
https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6a08-c07f-52a228da6009.html
点击查看题目
Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这意味着在神经网络中ReLU单元永远不会饱和。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-e268-c07f-52a228da6039.html
点击查看题目
首页
>
IT互联网
>
随便搞的题库做做
题目内容
(
判断题
)
手机预览
随便搞的题库做做

人工智能发展历程的第一次热潮是20世纪50年代神经网络相关基础理论的提出。

答案:A

分享
随便搞的题库做做
相关题目
“数据的故事化描述”是指为了提升数据的()和(),将数据还原成关联至特定的情景的过程。

A. 可理解性可记忆性可体验性$;$可接受性可记忆性可体验性$;$可接受性可记忆性可呈现性$;$可理解性可记忆性可呈线性

https://www.shititong.cn/cha-kan/shiti/0005e939-dbd2-0498-c07f-52a228da6008.html
点击查看答案
输入图片大小为200×200,依次经过一层卷积(kernelsize5×5,padding1,stride2),pooling(kernelsize3×3,padding0,stride1),又一层卷积(kernelsize3×3,padding1,stride1)之后,输出特征图大小为

A. 95$;$96$;$97$;$98

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-e268-c07f-52a228da601e.html
点击查看答案
仿生算法是一类模拟自然生物进化或者群体社会行为的随机搜索方法的统称。()
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-ea38-c07f-52a228da601d.html
点击查看答案
机器人之父是指艾伦·图灵
https://www.shititong.cn/cha-kan/shiti/0005e939-dbd1-ed28-c07f-52a228da602f.html
点击查看答案
已知x=[3,5,7],那么表达式x[-1::-1]的值为( )。

A. [3]
$;$[5,3]
$;$[7,5]
$;$[7,5,3]

https://www.shititong.cn/cha-kan/shiti/0005e939-eea4-f508-c07f-52a228da6010.html
点击查看答案
可以有效解决过拟合的方法包括()

A. 增加样本数量$;$增加特征数量$;$训练更多的迭代次数$;$采用正则化方法

https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-de80-c07f-52a228da601b.html
点击查看答案
DSSM经典模型的优点有()

A. 解决了字典爆炸问题,降低了计算复杂度$;$省去了人工特征工程$;$采用有监督训练,精度较高$;$效果不可控

https://www.shititong.cn/cha-kan/shiti/0005e939-e59d-0590-c07f-52a228da6026.html
点击查看答案
对于较长的序列数据,使用()可以大大提升循环神经网络处理能力。

A. LeNet
$;$AlexNet
$;$LSTM
$;$CNN

https://www.shititong.cn/cha-kan/shiti/0005e939-e31f-99e0-c07f-52a228da601c.html
点击查看答案
在训练神经网络过程中我们目的是让损失函数不断减小,我们常用以下哪种方法最小化损失函数

A.
梯度下降$;$Dropout$;$交叉验证$;$正则化

https://www.shititong.cn/cha-kan/shiti/0005e939-f894-6a08-c07f-52a228da6009.html
点击查看答案
Sigmoid是神经网络中最常用到的一种激活函数,除非当梯度太大导致激活函数被弥散,这叫作神经元饱和,这就是为什么ReLU会被提出来,因为ReLU可以使得梯度在正向时输出值与原始值一样。这意味着在神经网络中ReLU单元永远不会饱和。
https://www.shititong.cn/cha-kan/shiti/0005e939-e59c-e268-c07f-52a228da6039.html
点击查看答案
试题通小程序
试题通app下载