题目内容
(请给出正确答案)
[单选题]
梯度消失问题的认识哪个是正确的()?
A.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B.神经元处于Sigmoid等激活函数的饱和区工作,梯度值偏小
C.隐藏层神经元的个数太多导致
D.隐层的权重取值大容易导致梯度消失
查看答案
如果结果不匹配,请 联系老师 获取答案
A.隐藏层太多时,可能导致靠近输入层的权重的偏导数太小而得不到更新
B.神经元处于Sigmoid等激活函数的饱和区工作,梯度值偏小
C.隐藏层神经元的个数太多导致
D.隐层的权重取值大容易导致梯度消失
A.正向传播更新参数
B.正向传播计算结果
C.反向传播更新参数
D.反向传播计算结果
A.由于激活函数的非线性特点,导致反向传播过程中梯度消失的问题
B.激活函数不必可导
C.没有前馈计算也可以进行反向传播计算
D.Relu激活函数导致的神经元死亡指的是该节点以后都不可能被激活
A.梯度消失问题
B.过拟合问题
C.数据不平衡问题
D.梯度爆炸问题
A.LSTM在一定程度上解决了传统RNN梯度消失或梯度爆炸的问题
B.CNN相比于全连接的优势之一是模型复杂度低,缓解过拟合
C.只要参数设置合理,深度学习的效果至少应优于随机算法
D.随机梯度下降法可以缓解网络训练过程中陷入鞍点的问题