有关BP神经网络的说法,错误是哪个()?
A.训练时新样本的加入对已经学习的样本没影响
B.易陷入局部极小值
C.学习效率低,收敛速度慢
D.隐层的个数以及隐层节点的数量选取缺乏理论指导
A.训练时新样本的加入对已经学习的样本没影响
B.易陷入局部极小值
C.学习效率低,收敛速度慢
D.隐层的个数以及隐层节点的数量选取缺乏理论指导
A.交叉熵也可以作为分类预测问题的损失函数
B.在使用梯度下降时,加上冲量项会减少训练的速度,但可能会增加陷入局部极小值的可能
C.与批量梯度下降法相比,使用小批量梯度下降法可以降低训练速度,但达到全局最优解可能需要更多的迭代次数
D.神经元的激活函数选择不影响神经网络的训练过程和最终性能
A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP
B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度
C.舍弃了R-CNN的多尺度池化,提高了算法的速度
D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络
A.BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡
B.BN可以减少每个隐层神经元梯度的变化幅度
C.BN起到了减少过拟合的作用
D.BN一般位于隐层神经元的激活函数输出之后
A.学习率过大更容易导致训练陷入局部极小值
B.学习率可以与其他网络参数一起训练,对降低代价函数是有利的
C.学习率可以随着训练误差动态调整效果更好
D.网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡
A.神经网络神经元的输出都是传给其他神经元,不能再反馈回来
B.神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化
C.均方差损失函数是神经网络常用的一种代价函数(损失函数)
D.神经网络不同层次的神经元可以使用不同的激活函数
A.使用增加训练次数的方法不一定可以减少代价函数的取值
B.神经网络权重的初始化大小会对网络的训练结果无影响
C.对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素
D.分析问题确定后,神经网络合适的结构就可以确定