当前位置:  开发笔记 > 编程语言 > 正文

Scikit学习/熊猫的线性回归和梯度下降?

如何解决《Scikit学习/熊猫的线性回归和梯度下降?》经验,为你挑选了1个好方法。

在机器学习的课程中https://share.coursera.org/wiki/index.php/ML:Linear_Regression_with_Multiple_Variables#Gradient_Descent_for_Multiple_Variables,它表示梯度下降应该收敛.

我使用scikit学习的线性回归.它不提供梯度下降信息.我已经看到很多关于stackoverflow的问题,以实现具有梯度下降的线性回归.

我们如何在现实世界中使用来自scikit-learn或pandas的线性回归?或者为什么scikit-learn或pandas不提供线性回归输出中的梯度下降信息?



1> lejlot..:

Scikit learn为您提供了两种线性回归方法:

1)LinearRegression对象使用来自scipy的普通最小二乘求解器,因为LR是具有闭合形式解的两个分类器之一.尽管有ML课程 - 你实际上可以通过反转和乘法一些矩阵来学习这个模型.

2)SGDClassifier这是随机梯度下降的实现,非常通用的,你可以选择你的惩罚条款.要获得线性回归,您可以选择损失L2和惩罚none(线性回归)或L2(岭回归)

没有"典型的梯度下降",因为它在实践中很少使用.如果你可以将损失函数分解为附加项,那么已知随机方法表现得更好(因此SGD)并且如果你可以节省足够的内存 - OLS方法更快更容易(因此首先解决方案).


@lejlot你的意思是SGDRegressor吗?
推荐阅读
携手相约幸福
这个屌丝很懒,什么也没留下!
DevBox开发工具箱 | 专业的在线开发工具网站    京公网安备 11010802040832号  |  京ICP备19059560号-6
Copyright © 1998 - 2020 DevBox.CN. All Rights Reserved devBox.cn 开发工具箱 版权所有