首页 > 公务员> 中国梦
题目内容 (请给出正确答案)
[单选题]

AlexNet使用ReLU激活函数的好处不包括以下哪个方面()?

A.梯度为0时神经元难以正常工作

B.缓解了梯度消失问题

C.提高l网络训练速度

D.开销小、计算快

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“AlexNet使用ReLU激活函数的好处不包括以下哪个方面(…”相关的问题
第1题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
第2题
在卷积神经网络中,最后一层一般是全连接层,在全连接层中我们使用以下哪个函数作为激活函数?()

A.Softmax函数

B.SoftPlus函数

C.Sigmoid函数

D.Relu函数

点击查看答案
第3题
卷积神经网络一般包括卷积层、池化层、全连接层,一般激活函数在卷积层后进行使用。()
点击查看答案
第4题
下面有关神经网络的说法,正确的是()?

A.神经网络神经元的输出都是传给其他神经元,不能再反馈回来

B.神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化

C.均方差损失函数是神经网络常用的一种代价函数(损失函数)

D.神经网络不同层次的神经元可以使用不同的激活函数

点击查看答案
第5题
有关神经网络训练过程的说法,正确的是()?

A.使用增加训练次数的方法不一定可以减少代价函数的取值

B.神经网络权重的初始化大小会对网络的训练结果无影响

C.对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素

D.分析问题确定后,神经网络合适的结构就可以确定

点击查看答案
第6题
有关BP网络的说法,哪个是正确的()?

A.交叉熵也可以作为分类预测问题的损失函数

B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能

C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数

D.神经元的激活函数选择不影响神经网络的训练过程和最终性能

点击查看答案
第7题
定义函数的好处就安卓手机软件拼图式开发App。()
点击查看答案
第8题
关于反向传播,以下说法错误的是?()

A.反向传播只能在前馈神经网络中运用

B.反向传播会经过激活函数

C.反向传播可以结合梯度下降算法更新网络权重

D.反向传播指的是误差通过网络反向传播

点击查看答案
第9题
以下对触发器的说法错误的是()。

A.触发器是MySQL的数据库对象之一,同编程语言中的函数非常类似,都需要声明、执行等

B.触发器的执行不是由程序调用,而是由手工启动

C.触发器是由事件来触发、激活从而实现执行的

D.通过createtrigger语句来创建触发器

点击查看答案
第10题
下面有关批归一化BN(batchnormalization)的说法,错误的是哪个()?

A.BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡

B.BN可以减少每个隐层神经元梯度的变化幅度

C.BN起到了减少过拟合的作用

D.BN一般位于隐层神经元的激活函数输出之后

点击查看答案
第11题
使用赞美法的好处是给客户一种美好的感觉,并建立与客户非正式沟通的话题。()
点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改