我在这个关于危险边缘问题的数据集上运行光谱共聚类时,遇到了一个令人沮丧的数据问题。请注意,我只对’question’列中的所有值进行聚类。
显然,当我在数据集上运行双聚类时,出现了“除以零”的 ValueError 错误。
/usr/local/lib/python3.6/dist-packages/sklearn/cluster/bicluster.py:38: RuntimeWarning: divide by zero encountered in true_divide row_diag = np.asarray(1.0 / np.sqrt(X.sum(axis=1))).squeeze()/usr/local/lib/python3.6/dist-packages/sklearn/cluster/bicluster.py:286: RuntimeWarning: invalid value encountered in multiply z = np.vstack((row_diag[:, np.newaxis] * u,---------------------------------------------------------------------------ValueError Traceback (most recent call last)...ValueError: Input contains NaN, infinity or a value too large for dtype('float64').
错误似乎表明我的数据中(仅限于单一的问题列)隐藏着 NaN 或无穷值。我处理的是完全的文本数据,并且我已经尝试了大多数 NumPy 和 Pandas 的函数来过滤 NaN 和无穷值,以及 Stack Overflow 上的许多解决方案,但我没有找到任何问题。
为了确保我的代码没有问题,同样的事情在二十个新闻组数据集上运行得很好。
这是 Kaggle 上的代码,如果你想自己运行并查看的话。 然而,以防万一 Stack Overflow 的政策禁止这样做,以下是代码的简要概述:
dat = pd.DataFrame(pd.read_csv('../input/jarchive_cleaned.csv'))qlist = []def cleanhtml(raw_html): cleanr = re.compile('<.*?>') cleantext = re.sub(cleanr, '', raw_html) return cleantextfor row in dat.iterrows(): txt = row[1]['text'].lower() txt = cleanhtml(txt) txt = re.sub(r'[^a-z ]',"",txt) txt = re.sub(r' ',' ',txt)# txt = ' '.join([stem(w) for w in txt.split(" ")]) qlist.append([txt,row[1]['answer'],row[1]['category']])print(qlist[:10])swords = set(stopwords.words('english'))tv = TfidfVectorizer(stop_words = swords , strip_accents='ascii')queslst = [q for (q,a,c) in qlist]qlen = len(set([c for (q,a,c) in qlist]))mtx = tv.fit_transform(queslst)cocluster = SpectralCoclustering(n_clusters=qlen, svd_method='arpack', random_state=0) #t = time()cocluster.fit(mtx)
回答:
例如,像’down out’这样的字符串序列会导致TfidfVectorizer()
返回零值。这会导致从除以零错误开始的错误,导致mtx
中的inf
值出现在稀疏矩阵
中,从而引发第二个错误。
为了解决这个问题,可以删除这些序列,或者在通过TfidfVectorizer.fit_transform()
创建mtx
矩阵后删除其中的零矩阵元素,这在稀疏矩阵操作中有点棘手。
我采用了第二个解决方案,因为我没有深入研究原始任务,如下所示:
swords = set(stopwords.words('english'))tv = TfidfVectorizer(stop_words = swords , strip_accents='ascii')queslst = [q for (q,a,c) in qlist]qlen = len(set([c for (q,a,c) in qlist]))mtx = tv.fit_transform(queslst)indices = []for i,mx in enumerate(mtx): if np.sum(mx, axis=1) == 0: indices.append(i)mask = np.ones(mtx.shape[0], dtype=bool)mask[indices] = Falsemtx = mtx[mask] cocluster = SpectralCoclustering(n_clusters=qlen, svd_method='arpack', random_state=0) #t = time()cocluster.fit(mtx)
最后它工作了。希望这对你有帮助,祝好运!