TPOT在Ubuntu 18.04中优化时冻结

我开始使用dask和tpot工作。但是优化总是卡在0%。我几乎尝试了所有建议的解决方案,但仍然没有运气。以下是我的代码 –

import numpy as npimport multiprocessingimport csvimport tpotfrom dask.distributed import Clientfrom sklearn.model_selection import train_test_splittarget = list(csv.reader(open('target.csv')))target_n = [] for i in range(len(target)):     target_n.append(int(target[i][0]))data = list(csv.reader(open('data.csv')))data_n = []for i in range(len(data)):     tmp=[]     for j in range(len(data[i])):         tmp.append(np.longdouble(data[i][j]))     data_n.append(tmp)    data_array = np.asarray(data_n)  data_array = np.where(data_array < np.finfo(np.float64).max , data_array,np.finfo(np.float64).max)data_array = data_array.clip(min=0)X_train, X_test, y_train, y_test = train_test_split(data_array, target_array, train_size=0.75, test_size=0.25)tp = tpot.TPOTClassifier(generations=5, config_dict = 'TPOT light', population_size=10, cv = 5, random_state = 0, verbosity=3, use_dask=True, max_eval_time_mins=0.04, n_jobs = 20)tp.fit(X_train, y_train)print(tpot.score(X_test, y_test))

任何建议都将不胜感激。顺便说一下,我的数据库大小约为85MB


回答:

如果这个问题仍然存在,这里有几点建议:

假设你使用的是高性能硬件,因为你使用了dask和n_jobs=20。

我猜你的世代数和种群大小太小,无法在那么多工作线程之间并行,因此较小的工作负载被分开了。

在使用多个n_jobs时,你可能还需要一行关于多进程处理的代码。请参阅此链接中的崩溃冻结部分。

虽然这类开发测试很难进行,但TPOT建议至少使用60的种群大小进行测试,据我记忆所及。

如果这个问题仍然存在,请发布你的错误信息。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注