题目:神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:
2024-10-31
神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:
A. 避免了梯度消失问题
B. 提高了模型复杂度
C. 增强了模型可解释性
D. 减少了计算量
正确答案:A
试题解析:暂无
神经网络中的激活函数ReLU(Rectified Linear Unit)相比Sigmoid,主要优势是:
A. 避免了梯度消失问题
B. 提高了模型复杂度
C. 增强了模型可解释性
D. 减少了计算量
正确答案:A
试题解析:暂无