下面有关神经网络梯度消失说法错误的是()选项: A:当神经网络的隐层增加时,就容易发生梯度消失问题,表现在靠近输入层的权重难以更新。; B:网络梯度消失可能导致有些权重难以更新,导致网路训练失败。; C:网络梯度消失可以通过改变隐层和输出层的神经元激活函数减弱。; D:网络梯度消失可以通过减少隐层神经元的个数减弱。 容易发生 可以通过 神经网络 发布时间:2024-05-24 10:05:40