关于深度学习模型训练,以下哪个说法是错误的? 选项: A:网中网(NIN)结构用全连接的多层感知机去代替传统的卷积,提升了模型的计算性能,但计算量显著增加 B:网络层数越多,学习率可设置偏大,否则容易引起梯度消失 C:VGG只要很少的迭代次数就会收敛,这是因为小的过滤尺寸起到了隐式的正则化的作用 D:Bagging中每个训练集互不相关,而Boosting中训练集要在上一轮的结果上进行调整,所以不能并行计算 不相关 并行计算 发布时间:2024-03-27 12:34:20