在h2o的深度学习函数中,对于某一组参数的组合,每次运行时我得到的结果都不相同。
args <- list(list(hidden = c(200,200,200), loss = "CrossEntropy", hidden_dropout_ratio = c(0.1, 0.1,0.1), activation = "RectifierWithDropout", epochs = EPOCHS))
run <- function(extra_params) { model <- do.call(h2o.deeplearning, modifyList(list(x = columns, y = c("Response"), validation_frame = validation, distribution = "multinomial", l1 = 1e-5,balance_classes = TRUE, training_frame = training), extra_params))}
model <- lapply(args, run)
为了每次运行时模型都能得到一致的结果,我需要做些什么?
回答:
如果在多于一个核上运行,H2O的深度学习将无法重现。每次训练深度学习模型时,结果和性能指标可能会略有不同。H2O中的实现使用了一种称为“Hogwild!”的技术,这提高了训练速度,但以牺牲多核上的可重现性为代价。
因此,如果你想要可重现的结果,你需要限制H2O在单核上运行,并确保在h2o.deeplearning
调用中使用seed
参数。
根据Darren Cook的评论进行的编辑:我忘了包括需要与seed
参数一起设置的reproducible = TRUE
参数,以使其真正可重现。请注意,这将使运行速度大大减慢。对于大型数据集,不建议这样做。
关于“Hogwild!”的更多信息