- 我拟合逻辑回归模型并使用以下方法基于训练数据集训练模型
import scikits as sklearn
from sklearn.linear_model import LogisticRegression
lr = LogisticRegression(C=0.1, penalty='l1')
model = lr.fit(training[:,0:-1], training[:,-1)
- 我有一个交叉验证数据集,其中包含输入矩阵中关联的标签,可以通过以下方式访问
cv[:,-1]
- 我针对经过训练的模型运行交叉验证数据集,该模型根据预测返回 0 和 1 的列表
cv_predict = model.predict(cv[:,0:-1])
Question
我想根据实际标签和预测标签计算精度和召回分数。有没有使用 numpy/scipy/scikit 的标准方法?
谢谢
是的,有,请参阅文档:http://scikit-learn.org/stable/modules/classes.html#classification-metrics http://scikit-learn.org/stable/modules/classes.html#classification-metrics
您还应该看看sklearn.metrics.classification_report
公用事业:
>>> from sklearn.metrics import classification_report
>>> from sklearn.linear_model import SGDClassifier
>>> from sklearn.datasets import load_digits
>>> digits = load_digits()
>>> n_samples, n_features = digits.data.shape
>>> n_split = n_samples / 2
>>> clf = SGDClassifier().fit(digits.data[:n_split], digits.target[:n_split])
>>> predictions = clf.predict(digits.data[n_split:])
>>> expected = digits.target[n_split:]
>>> print classification_report(expected, predictions)
precision recall f1-score support
0 0.90 0.98 0.93 88
1 0.81 0.69 0.75 91
2 0.94 0.98 0.96 86
3 0.94 0.85 0.89 91
4 0.90 0.93 0.91 92
5 0.92 0.92 0.92 91
6 0.92 0.97 0.94 91
7 1.00 0.85 0.92 89
8 0.71 0.89 0.79 88
9 0.89 0.83 0.86 92
avg / total 0.89 0.89 0.89 899
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)