一、回顾线性回归:

线性回归:
【每日一更】<吴恩达-机器学习>单变量的线性回归&认识梯度下降_故里的博客-CSDN博客一、单变量线性回归 - Linear regession with one variable:Supervised Learning: Gives the "right answer" for each example in the data.Regression Problem: Redict real-valued outputClassfication Problem: Discrate-value output1.常用字符标识:(x, y) = One training..https://blog.csdn.net/weixin_52058417/article/details/121882083?spm=1001.2014.3001.5502

【每日一更】<吴恩达-机器学习>多变量线性回归&学习率&特征值_故里的博客-CSDN博客目录一、Linear Regression with multiple variable - 多变量线性回归:二、Gradient descent for multiple carables - 多变量梯度下降:三、Feature Scaling - 特征缩放:1.特征缩放方法:2.归一化和标准化的区别:四、Learning rate - 学习率:五、Features and polynomial regression:一、Linear Regression with mu.https://blog.csdn.net/weixin_52058417/article/details/121918675?spm=1001.2014.3001.5502


二、回顾Ridge回归:


三、初识Lasso回归:

        Lasso回归有时也叫做线性回归的L1正则化,和Ridge回归的主要区别就是在正则化项,Ridge回归用的是L2正则化,而Lasso回归用的是L1正则化。


四、用坐标轴下降法求解Lasso回归:

        坐标轴下降法顾名思义,是沿着坐标轴的方向去下降,这和梯度下降不同。梯度下降是沿着梯度的负方向下降。不过梯度下降和坐标轴下降的共性就都是迭代法,通过启发式的方式一步步迭代求解函数的最小值。

Logo

一站式 AI 云服务平台

更多推荐