A.如果训练样本量较大,可选用随机梯度下降(SGD),它考虑历史梯度信息,更容易跳出局部极小值点
B.在高度非凸的深度网络优化过程,主要难点是鞍点
C.用无监督数据作分层预训练(Layer-wisePre-train)有助于解决梯度饱和问题
D.Sigmoid交叉熵损失函数适合于多标签学习,每一维彼此独立
A.透明传输问题是由于引入帧定界符造成的
B.采用帧定界符可以解决封装成帧的问题
C.CRC循环冗余检验实际采用的是二进制反码求和运算
D.通过循环冗余检验可以实现无差错接受
A.哪些品牌更容易被用户同时提及?
B.哪些品牌对本品产生的威胁更大?
C.本品用户未来会喜欢什么新产品?
D.新车上市前的舆情预测