我开始使用dask和tpot工作。但是优化总是卡在0%。我几乎尝试了所有建议的解决方案,但仍然没有运气。以下是我的代码 –
import numpy as npimport multiprocessingimport csvimport tpotfrom dask.distributed import Clientfrom sklearn.model_selection import train_test_splittarget = list(csv.reader(open('target.csv')))target_n = [] for i in range(len(target)): target_n.append(int(target[i][0]))data = list(csv.reader(open('data.csv')))data_n = []for i in range(len(data)): tmp=[] for j in range(len(data[i])): tmp.append(np.longdouble(data[i][j])) data_n.append(tmp) data_array = np.asarray(data_n) data_array = np.where(data_array < np.finfo(np.float64).max , data_array,np.finfo(np.float64).max)data_array = data_array.clip(min=0)X_train, X_test, y_train, y_test = train_test_split(data_array, target_array, train_size=0.75, test_size=0.25)tp = tpot.TPOTClassifier(generations=5, config_dict = 'TPOT light', population_size=10, cv = 5, random_state = 0, verbosity=3, use_dask=True, max_eval_time_mins=0.04, n_jobs = 20)tp.fit(X_train, y_train)print(tpot.score(X_test, y_test))
任何建议都将不胜感激。顺便说一下,我的数据库大小约为85MB
回答:
如果这个问题仍然存在,这里有几点建议:
假设你使用的是高性能硬件,因为你使用了dask和n_jobs=20。
我猜你的世代数和种群大小太小,无法在那么多工作线程之间并行,因此较小的工作负载被分开了。
在使用多个n_jobs时,你可能还需要一行关于多进程处理的代码。请参阅此链接中的崩溃冻结部分。
虽然这类开发测试很难进行,但TPOT建议至少使用60的种群大小进行测试,据我记忆所及。
如果这个问题仍然存在,请发布你的错误信息。