参数正则化
参数正则化通过在损失函数中加入惩罚项来控制模型复杂度,降低过拟合风险。本文概述L1/L2正则化及其在线性回归与优化中的作用与差异。
不要害怕未知的事物
参数正则化通过在损失函数中加入惩罚项来控制模型复杂度,降低过拟合风险。本文概述L1/L2正则化及其在线性回归与优化中的作用与差异。
AdaBoost是一种基于样本加权的提升方法,通过迭代训练弱学习器并加权集成提升分类或回归性能。本文概述其目标函数、权重更新与回归扩展的核心思想。
XGBoost是一种基于梯度提升的树模型集成方法,通过优化目标函数与正则项逐步拟合残差,广泛用于分类与回归任务。本文梳理其目标函数、正则项与树结构学习的核心推导。
An Unofficial Wrapper for okx exchange v5 API.
A Wrapper of JavaScript Library 'flipdown.js'.