首页 > 医卫考试> 健康知识
题目内容 (请给出正确答案)
[单选题]

梯度消失问题的认识哪个是正确的()?

A.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新

B.神经元处于Sigmoid等激活函数的饱和区工作,梯度值偏小

C.隐藏层神经元的个数太多导致

D.隐层的权重取值大容易导致梯度消失

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“梯度消失问题的认识哪个是正确的()?”相关的问题
第1题
深度学习中如果神经网络的层数较多比较容易出现梯度消失问题,严格意义上来讲是在以下哪个环节出现梯度消失问题?()

A.正向传播更新参数

B.正向传播计算结果

C.反向传播更新参数

D.反向传播计算结果

点击查看答案
第2题
AlexNet使用ReLU激活函数的好处不包括以下哪个方面()?

A.梯度为0时神经元难以正常工作

B.缓解了梯度消失问题

C.提高l网络训练速度

D.开销小、计算快

点击查看答案
第3题
LSTM可以缓解RNN梯度消失/梯度爆炸的问题。()
点击查看答案
第4题
下列关于多层感知机的描述正确的是() 。

A.由于激活函数的非线性特点,导致反向传播过程中梯度消失的问题

B.激活函数不必可导

C.没有前馈计算也可以进行反向传播计算

D.Relu激活函数导致的神经元死亡指的是该节点以后都不可能被激活

点击查看答案
第5题
深度学习是目前比较火热的人工智能技术,但是在做深度学习任务时常常会遇到各种各样的问题,以下会在深度学习任务中出现的问题有()

A.梯度消失问题

B.过拟合问题

C.数据不平衡问题

D.梯度爆炸问题

点击查看答案
第6题
关于循环神经网络以下说法错误的是?()

A.循环神经网络可以根据时间轴展开

B.LSTH也是种循环神经网络

C.LSTM无法解决梯度消失的问题

D.循环神经网络可以简写为RNN

点击查看答案
第7题
以下哪些激活函数在求参过程中存在梯度消失的问题()。

A.sigmoid

B.tanh

C.ReLU

D.LeakyReLu

点击查看答案
第8题
下列关于深度学习说法错误的是()

A.LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题

B.CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合

C.只要参数设置合理,深度学习的效果至少应优于随机算法

D.随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题

点击查看答案
第9题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为:()

A.随机欠采样

B.梯度剪切

C.正则化

D.使用Relu激活函数

点击查看答案
第10题
如果深度学习神经网络出现了梯度消失或梯度爆炸问题我们常用的解决方法为()。

A.正则化

B.梯度剪切

C.随机欠采样

D.使用Relu激活函数

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改