Kernel in a logistic regression model LogisticRegression scikit-learn sklearn

如何在使用sklearn库时,在逻辑回归模型中使用核函数?

logreg = LogisticRegression()logreg.fit(X_train, y_train)y_pred = logreg.predict(X_test)print(y_pred)print(confusion_matrix(y_test,y_pred))print(classification_report(y_test,y_pred))predicted= logreg.predict(predict)print("Accuracy:",metrics.accuracy_score(y_test, y_pred))

回答:

这个问题问得很好,但目前scikit-learn不支持核逻辑回归和ANOVA核函数。

不过,您可以自己实现它。

ANOVA核函数的示例1:

import numpy as npfrom sklearn.metrics.pairwise import check_pairwise_arraysfrom scipy.linalg import choleskyfrom sklearn.linear_model import LogisticRegressiondef anova_kernel(X, Y=None, gamma=None, p=1):    X, Y = check_pairwise_arrays(X, Y)    if gamma is None:        gamma = 1. / X.shape[1]    diff = X[:, None, :] - Y[None, :, :]    diff **= 2    diff *= -gamma    np.exp(diff, out=diff)    K = diff.sum(axis=2)    K **= p    return K# 基于所有数据点的X矩阵的核矩阵K = anova_kernel(X)R = cholesky(K, lower=False)# 定义模型clf = LogisticRegression()# 假设您已经分割了数据,这里train是训练集的索引clf.fit(R[train], y_train)preds = clf.predict(R[test])¨

Nyström方法的示例2:

from sklearn.kernel_approximation import Nystroemfrom sklearn.linear_model import LogisticRegressionfrom sklearn.pipeline import PipelineK_train = anova_kernel(X_train)clf = Pipeline([    ('nys', Nystroem(kernel='precomputed', n_components=100)),    ('lr', LogisticRegression())])clf.fit(K_train, y_train)K_test = anova_kernel(X_test, X_train)preds = clf.predict(K_test)

Related Posts

多维度Top-k评分

例如,在机器学习中的自然语言处理中,通常使用波束搜索来…

R – Caret train() “错误:停止” 与 “在newdata中未找到对象中使用的所有变量名”

我正在尝试为蘑菇数据构建一个简单的朴素贝叶斯分类器。我…

创建训练和测试数据集分割,数据嵌套在多个文件夹中

我正在准备数据以训练一个图像识别模型。目前我有一个文件…

我的神经网络预测出现错误:IndexError: list index out of range

我正在进行一个简单的垃圾邮件/非垃圾邮件文本分类。我的…

python 给出数组是一维的,但索引了两个维度错误

我已经为 miniBatchGradientDesce…

TensorFlow自定义训练步骤使用不同的损失函数

背景 根据TensorFlow文档,可以使用以下方式执…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注