首页 > 公务员> 强国挑战
题目内容 (请给出正确答案)
[单选题]

下列有关神经网络的说法不正确的是()。

A.与传统自适应控制相同,神经网络自适应控制也分为神经网络自校正控制和神经网络模型参考自适应控制两种

B.神经网络自校正控制分为直接自校正控制和间接自校正控制

C.神经网络自适应评判控制通常由两个网络组成,分别是自适应评判网络和控制选择网络

D.以上说法都不正确

查看答案
答案
收藏
如果结果不匹配,请 联系老师 获取答案
您可能会需要:
您的账号:,可能还需要:
您的账号:
发送账号密码至手机
发送
安装优题宝APP,拍照搜题省时又省心!
更多“下列有关神经网络的说法不正确的是()。”相关的问题
第1题
下面有关神经网络的说法,正确的是()?

A.神经网络神经元的输出都是传给其他神经元,不能再反馈回来

B.神经网络的训练主要是针对神经元之间的权重和神经元的偏置进行一定的调整,使得代价函数极小化

C.均方差损失函数是神经网络常用的一种代价函数(损失函数)

D.神经网络不同层次的神经元可以使用不同的激活函数

点击查看答案
第2题
有关神经网络训练过程的说法,正确的是()?

A.使用增加训练次数的方法不一定可以减少代价函数的取值

B.神经网络权重的初始化大小会对网络的训练结果无影响

C.对神经网络训练的优化需要综合考虑激活函数、网络结构、权重更新方法等多种因素

D.分析问题确定后,神经网络合适的结构就可以确定

点击查看答案
第3题
有关BP神经网络的不足的说法哪些是正确的()?

A.易陷入局部极小

B.学习效率低

C.隐节点的个数可以随意取

D.检验时新样本与训练样本差别大泛化效果弱

点击查看答案
第4题
有关BP神经网络的说法,错误是哪个()?

A.训练时新样本的加入对已经学习的样本没影响

B.易陷入局部极小值

C.学习效率低,收敛速度慢

D.隐层的个数以及隐层节点的数量选取缺乏理论指导

点击查看答案
第5题
关于人工智能的发展,下列说法不正确的是()。
A.1956年,约翰·麦卡锡(John McCarthy)等人在美国达特茅斯学院组织了机器智能、人工神经网络和自动化理论暑期研讨会,提出了人工智能的概念

B.1980年,CMU为DEC设计了一套名为XCON的“专家系统”,取得巨大成功,人工智能研究进入第二次高潮

C.1943年,美国心理学家沃伦·麦卡洛克(Warren McCulloch)和数理逻辑学家沃尔特·皮兹(Walter Pitts)发表了《神经活动中内在思想的逻辑演算》,提出了人工神经网络的概念和神经元模型,成为人工智能诞生的标志

D.1973年,英国科学研究委员会(SRC)向英国政府提交了一份由知名应用数学家JamesLighthill爵士带头起草的报告,对人工智能研究各个领域的实际进展提出了质疑,人工智能研究进入第一个冬天

点击查看答案
第6题
与R-CNN相比,有关Fast-RCNN的说法错误的是哪个()?

A.可以把分类损失和边框精调的回归损失加在一起训练卷积神经网络,降低了Fast-RCNN的mAP

B.候选框的目标分类和边框精调都由卷积神经网络承担,这也提高了算法的速度

C.舍弃了R-CNN的多尺度池化,提高了算法的速度

D.Fast-RCNN将候选区域的特征获取和分类放在一个卷积神经网络

点击查看答案
第7题
下面有关深度学习、目标检测和边缘计算的说法,正确的是哪些()?

A.目标检测常使用深度学习中卷积神经网络模型

B.训练好的目标检测算法可以用于边缘计算

C.机器视觉场景往往需要应用边缘计算

D.边缘计算就是一种人工智能

点击查看答案
第8题
以下有关OpenVINO的说法,正确的是哪些()?

A.它主要应用于计算机视觉,实现深度神经网络模型优化和推理计算加速

B.拥有预置的计算机视觉功能库和预优化的内核

C.支持来自流行的框架Caffe、TensorFlow和MXNet的模型

D.只能在Linux平台运行的机器视觉软件工具包

点击查看答案
第9题
关于人工智能机器学习算法,下列叙述不正确的是()。

A.人工神经网络既可以设计监督学习算法也可以设计非监督学习算法

B.机器学习算法就是指各种人工神经网络算法

C.K-means算法用于聚类,属于非监督学习范畴

D.支持向量机算法属于线性分类算法,属于监督学习范畴

点击查看答案
第10题
下面有关批归一化BN(batchnormalization)的说法,错误的是哪个()?

A.BN主要解决深度神经网络各层输入的分布一致,增加训练过程的平衡

B.BN可以减少每个隐层神经元梯度的变化幅度

C.BN起到了减少过拟合的作用

D.BN一般位于隐层神经元的激活函数输出之后

点击查看答案
第11题
有关神经网络训练时使用的学习率参数说法错误的是()?

A.学习率过大更容易导致训练陷入局部极小值

B.学习率可以与其他网络参数一起训练,对降低代价函数是有利的

C.学习率可以随着训练误差动态调整效果更好

D.网络训练时刚开始学习率可以大一些,以便提高学习速度,随后应减少学习率,以免引起学习震荡

点击查看答案
退出 登录/注册
发送账号至手机
密码将被重置
获取验证码
发送
温馨提示
该问题答案仅针对搜题卡用户开放,请点击购买搜题卡。
马上购买搜题卡
我已购买搜题卡, 登录账号 继续查看答案
重置密码
确认修改