Logo
0

逻辑回归虽然看起来简单,但是确实工作中使用场景非常多的分类模型,值得认真对待

模型形式

y^=11+e(iwixi+b)\begin{gather} \hat{y}=\frac{1}{1+e^{-(\sum_{i}{w_{i}x_{i}}+b)}} \end{gather} loss=iyilog(yi^)+(1yi)log(1yi^)\begin{gather} loss=-\sum_{i}{y_{i}log(\hat{y_{i}})+(1-y_{i})log(1-\hat{y_{i}})} \end{gather}

❓为什么不用MSE或者MAE? 💡因为这两种损失函数在sigmoid下都不是凸函数,不利于找到最优点

特征工程

  1. 特征离散化:将一些离散的特征通过离散化one-hot后,可以增加逻辑回归这种广义线性模型的非线性表示(可以理解为分段函数),同时离散后必然容易出现稀疏矩阵,运算速度快,且离散化后的特征对于异常值具有较强的鲁棒性。比如一个特征是年龄>30是1,否则0。如果特征没有离散化,一个异常数据“年龄300岁”会给模型造成很大的干扰。离散化后可以进行特征交叉 Pasted image 20240919225716.png

© 2025 All rights reservedBuilt with DataHub Cloud

Built with LogoDataHub Cloud