技术文摘
批量梯度下降、小批量梯度下降与随机梯度下降
批量梯度下降、小批量梯度下降与随机梯度下降
在机器学习和深度学习领域,优化算法对于模型训练至关重要,而梯度下降及其变体——批量梯度下降、小批量梯度下降与随机梯度下降,是最为常用的几种优化方式。
批量梯度下降(Batch Gradient Descent,BGD),是梯度下降算法的基础形式。它在每一次迭代时,都会使用训练集中的全部样本数据来计算梯度。这意味着,在计算梯度时,需要遍历整个训练数据集。优点是,由于使用了所有数据,最终能够保证收敛到全局最优解(在凸函数的情况下)或者局部最优解(非凸函数)。但缺点也很明显,当数据集规模非常大时,计算梯度的时间开销极大,内存占用也高,训练速度缓慢,甚至可能因为内存不足而无法进行训练。
随机梯度下降(Stochastic Gradient Descent,SGD)则走向了另一个极端。它每次迭代只随机选取一个样本数据来计算梯度并更新参数。这种方式极大地减少了计算量和内存需求,训练速度大幅提升。而且,由于每次更新都基于单个样本的梯度,算法能够更快地适应新的数据,有助于跳出局部最优解。然而,SGD的更新方向具有较大的随机性,使得参数更新过程不够稳定,损失函数可能会出现剧烈波动,收敛过程也会相对曲折,难以达到理论上的最优解。
小批量梯度下降(Mini-Batch Gradient Descent,MBGD)结合了上述两者的优点。它每次迭代选取一小部分样本(即一个小批量)来计算梯度。小批量的大小通常在几十到几百之间。这样既减少了计算量和内存占用,提高了训练速度,又相对稳定,减少了参数更新的随机性。与SGD相比,MBGD的梯度计算更加准确,收敛过程更加平稳;与BGD相比,它不需要一次性处理整个数据集,训练效率更高。
在实际应用中,我们需要根据数据集的规模、模型的复杂度以及对训练时间和精度的要求,合理选择梯度下降的变体。这三种算法各有优劣,共同为机器学习模型的训练优化提供了有力支持。
- 8 个常用的 pandas index 设置好习惯
- Python 中三个鲜为人知却极有用的数据科学库
- 微服务体系的分层与领域设计
- 工作 3 年同事竟分不清 isEmpty 与 isBlank ,令人无语
- 7 月 Github 上 JavaScript 开源项目排名
- Vue 实战技巧大放异彩
- JS 和 TS 中 Void 的差异
- 探秘万亿参数 M6 模型预训练的分布式框架 Whale
- 微软和浙大研究者提出无需微调的剪枝框架 OTO 以获取轻量级架构
- 从前序、中序与后序遍历序列构造二叉树重磅来袭
- 关于 Linux C 语言字节对齐的事
- HarmonyOS LYEVK-3861 开发板演绎《蜜雪冰城》
- 达摩院于目标重识别中首次引入 Pure Transformer 论文入选 ICCV 2021
- 奔四听障码农,开除 15 次面试拒 200+次,是否应继续
- 码农被认定为新生代农民工引热议 网友:实锤 没问题