A、各个神经元接受前一级神经元的输入,并输出到下一级
B、层与层之间通过“全连接”进行连接,即两个相邻层之间神经元完全成对连接
C、同一层内的神经元相互不连接
D、同一层内神经元之间存在全连接
答案:D
A、各个神经元接受前一级神经元的输入,并输出到下一级
B、层与层之间通过“全连接”进行连接,即两个相邻层之间神经元完全成对连接
C、同一层内的神经元相互不连接
D、同一层内神经元之间存在全连接
答案:D
A. 随机型
B. 连续型
C. 离散型
D. 分类型
A. MBOW
B. CBOW
C. Stop-gram
D. Skip-gram
解析:见算法解析
A. 归一化
B. 白化
C. 数据增强
D. 批量归一化
解析:批量归一化对隐含层的输入进行归一化,更好的尺度不变性(应对内部协变量偏移),更好的优化地形(输入处于不饱和区域,从而让梯度变大)
解析:机器学习领域和数据库领域是数据挖掘的两大支撑。
A. —组对象所具有的相似性质
B. —个对象具有另一个对象的性质
C. 各对象之间的共同性质
D. 类之间共享属性和操作的机制
A. 自然语言理解和自然语言转化
B. 自然语言理解和自然语言生成
C. 自然语言理解和自然语言翻译
D. 自然语言生成和自然语言翻译
A. 在线&;&离线&;&自动&;&手动
解析:主要应用
A. 不同的神经网络结构,层数与神经元数量正相关,层数越多,神经元数量越多
B. 网络结构的层次越深,其学习特征越多,10层的结构要优于5层结构
C. 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多少有关
D. 网络的层次越深,其训练时间越久,5层的网络比4层的训练时间长
解析:不同训练数据集的神经网络结构的最优层数不同,并非层数越深效果越好,训练时间除了与层数有关以外,batchsize大小、学习率、衰减方式等都有很大影响,神经元的数量并不一定与层数正相关
A. U-Net
B. DeepLab
C. ICNet
D. BERT
解析:BERT是自然语言模型
A. GPU
B. FPGA
C. ASIC
D. CPU