如何在 scikit-learn 中实现多项式逻辑回归?

2023-12-27

我正在尝试创建非线性逻辑回归,即使用 scikit-learn 的多项式逻辑回归。但我找不到如何定义多项式的次数。有人尝试过吗? 多谢!


为此,您需要分两步进行。让我们假设您正在使用 iris 数据集(因此您有一个可重现的示例):

from sklearn.datasets import load_iris
from sklearn.linear_model import LogisticRegression
from sklearn.preprocessing import PolynomialFeatures
from sklearn.model_selection import train_test_split
from sklearn.pipeline import Pipeline

data = load_iris()
X = data.data
y = data.target
X_train, X_test, y_train, y_test = train_test_split(X, y)

Step 1

首先,您需要将数据转换为多项式特征。最初,我们的数据有 4 列:

X_train.shape
>>> (112,4)

您可以使用 scikit learn 创建多项式特征(此处为 2 阶):

poly = PolynomialFeatures(degree = 2, interaction_only=False, include_bias=False)
X_poly = poly.fit_transform(X_train)
X_poly.shape
>>> (112,14)

我们知道有 14 个特征(原来的 4 个、它们的平方和 6 个交叉组合)

Step 2

在此基础上,您现在可以构建逻辑回归调用X_poly

lr = LogisticRegression()
lr.fit(X_poly,y_train)

注意:如果您想根据测试数据评估您的模型,您还需要遵循以下两个步骤并执行以下操作:

lr.score(poly.transform(X_test), y_test)

将所有内容放在管道中(可选)

您可能希望使用 Pipeline 在一个对象中处理这两个步骤,以避免构建中间对象:

pipe = Pipeline([('polynomial_features',poly), ('logistic_regression',lr)])
pipe.fit(X_train, y_train)
pipe.score(X_test, y_test)
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)

如何在 scikit-learn 中实现多项式逻辑回归? 的相关文章

随机推荐