我正在尝试将决策树拟合到特征和标签矩阵上。以下是我的代码:
print FEATURES_DATA[0]print ""print TARGET[0]print ""print np.unique(list(map(len, FEATURES_DATA[0])))
输出如下:
[ array([[3, 3, 3, ..., 7, 7, 7], [3, 3, 3, ..., 7, 7, 7], [3, 3, 3, ..., 7, 7, 7], ..., [2, 2, 2, ..., 6, 6, 6], [2, 2, 2, ..., 6, 6, 6], [2, 2, 2, ..., 6, 6, 6]], dtype=uint8)][ array([[31], [31], [31], ..., [22], [22], [22]], dtype=uint8)][463511]
该矩阵实际上包含463511个样本。
之后,我运行以下代码块:
from sklearn.tree import DecisionTreeClassifierfor i in xrange(5): Xtrain=FEATURES_DATA[i] Ytrain=TARGET[i] clf=DecisionTreeClassifier() clf.fit(Xtrain,Ytrain)
这会导致以下错误:
---------------------------------------------------------------------------ValueError Traceback (most recent call last)<ipython-input-4-3d8b2a7a3e5f> in <module>() 4 Ytrain=TARGET[i] 5 clf=DecisionTreeClassifier()----> 6 clf.fit(Xtrain,Ytrain)C:\Users\singhg2\AppData\Local\Enthought\Canopy\User\lib\site-packages\sklearn\tree\tree.pyc in fit(self, X, y, sample_weight, check_input, X_idx_sorted) 152 random_state = check_random_state(self.random_state) 153 if check_input:--> 154 X = check_array(X, dtype=DTYPE, accept_sparse="csc") 155 if issparse(X): 156 X.sort_indices()C:\Users\singhg2\AppData\Local\Enthought\Canopy\User\lib\site-packages\sklearn\utils\validation.pyc in check_array(array, accept_sparse, dtype, order, copy, force_all_finite, ensure_2d, allow_nd, ensure_min_samples, ensure_min_features, warn_on_dtype, estimator) 371 force_all_finite) 372 else:--> 373 array = np.array(array, dtype=dtype, order=order, copy=copy) 374 375 if ensure_2d:ValueError: setting an array element with a sequence.
我在Stack Overflow上搜索了其他帖子,发现大多数答案是矩阵不是完全由数字组成,或者样本之间的数组长度不同。但我的问题并非如此?
有什么帮助吗?
回答:
如果print FEATURES_DATA[0]
实际打印的是
[ array([[3, 3, 3, ..., 7, 7, 7], [3, 3, 3, ..., 7, 7, 7], [3, 3, 3, ..., 7, 7, 7], ..., [2, 2, 2, ..., 6, 6, 6], [2, 2, 2, ..., 6, 6, 6], [2, 2, 2, ..., 6, 6, 6]], dtype=uint8)]
那么问题在于FEATURES_DATA[0]是一个包含numpy数组的Python列表。(你可以从[
和]
中理解这一点)
你可以选择列表的第一个(也是唯一的一个)元素来解决这个问题
from sklearn.tree import DecisionTreeClassifierfor i in xrange(5): Xtrain=FEATURES_DATA[i][0] Ytrain=TARGET[i][0] clf=DecisionTreeClassifier() clf.fit(Xtrain,Ytrain)