指定Keras使用GPU而不使用CUDA_VISIBLE_DEVICES

我的系统中有两个GPU,并且我在使用TensorFlow后端的Keras。GPU:0被分配给了PyCUDA,它执行一个独特的操作,这个操作会传递给Keras,并且每个批次都会变化。因此,我想在GPU:1上运行Keras模型,同时让GPU:0继续分配给PyCUDA。

有什么方法可以做到这一点吗?我查看了之前的讨论,找到了几个已废弃的解决方案。


回答:

所以我认为这个功能目前在Keras中并没有得到有效实现。我找到了一个推荐的变通方法,你可以使用Python的默认多进程库创建多个进程来解决这个问题。

注意:对于这种设置,目前你需要生成一个新的进程,而不是分叉进程,以避免与PyCUDA后端库之一发生奇怪的交互。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注