题目内容 (请给出正确答案)
[单选]

创造了神经网络反向传播算法(BP算法)的是()?

A、爱德华·费根鲍姆

B、保罗·韦伯斯

C、阿兰·图灵

D、杰夫·辛顿

查看答案
更多“创造了神经网络反向传播算法(BP算法)的是()?…”相关的问题
第1题
误差逆传播算法(BP)仅可用于多层前馈神经网络的学习算法()。

A、正确

B、错误

点击查看答案
第2题
卷积神经网络中每层卷积层(Convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到,其作用是()。

A、增强图像

B、简化图像

C、特征提取

D、图像处理

点击查看答案
第3题

卷积神经网络中每层卷积层(convolutional layer)由若干卷积单元组成,每个卷积单元的参数都是通过反向传播算法最佳化得到,其作用是()。

A、增强图像

B、简化图像

C、特征提取

D、图像处理

点击查看答案
第4题
下列关于BP网络说法不正确的是()。

A、标准BP算法每次仅针对一个训练样例更新连接权和阈值

B、BP神经网络经常遭遇过拟合

C、早停策略可用来缓解BP网络的过拟合问题

D、晚停策略可用来缓解BP网络的欠拟合问题

点击查看答案
第5题
关于卷积神经网络CNN与循环神经网络RNN,下面说法正确的有:()

A、CNN和RNN都属于神经网络,因此二者的训练方式完全一致,均采用BP算法。

B、CNN和RNN都采用了权值共享机制以减少网络中的参数量。

C、在同一个网络中,CNN结构和RNN结构不能同时使用。

D、CNN适用于图像处理,而RNN适用于序列数据处理。

点击查看答案
第6题
BP算法的基本工作过程包括()阶段。

A、权值和阈值的更新

B、信号的前向传播

C、误差的逆向传播

D、包含以上三个阶段

点击查看答案
第7题
关于Dropout说法正确的是:()。

A、Dropout背后的思想其实就是把DNN当做一个集成模型来训练,之后取所有值的平均值,而不只是训练单个DNN

B、DNN网络将Dropout率设置为p,也就是说,一个神经元被保留的概率是1-p。当一个神经元被丢弃时,无论输入或者相关的参数是什么,它的输出值就会被设置为0

C、丢弃的神经元在训练阶段,对BP算法的前向和后向阶段都没有贡献。因为这个原因,所以每一次训练,它都像是在训练一个新的网络

D、Dropout方法通常和L2正则化或者其他参数约束技术(比如MaxNorm)一起使用,来防止神经网络的过拟合

点击查看答案
第8题

()不是神经网络的代表。

A、卷积神经网络

B、递归神经网络

C、残差网络

D、xgboost算法

点击查看答案
第9题
数据挖掘的挖掘方法包括()。

A、聚类分析

B、回归分析

C、神经网络

D、决策树算法

点击查看答案
第10题
Boosting算法是一种人工神经网络算法()

点击查看答案
第11题
如果自变量有连续型变量,则不适用的分类预测方法有()。

A、逻辑回归

B、神经网络

C、SVM算法

D、C4.5算法

点击查看答案
发送账号至手机
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改
搜题
如果结果不匹配,请 联系老师 获取答案
搜索
如果结果不匹配,请 联系老师 获取答案