在训练模型时,我们可以基于梯度使用不同的优化器(optimizer,或者称为“优化算法”)来最小化损失函数。这篇文章对常用的优化器进行了总结。 BGD BGD 的全称是 Batch Gradient … Continue reading 【深度学习】常用优化器总结
在训练模型时,我们可以基于梯度使用不同的优化器(optimizer,或者称为“优化算法”)来最小化损失函数。这篇文章对常用的优化器进行了总结。 BGD BGD 的全称是 Batch Gradient … Continue reading 【深度学习】常用优化器总结