使用多GPU的单实例还是使用单GPU的多实例

我正在使用GPU运行多个模型,所有任务结合起来可以使用4个GPU来运行,例如。由于GPU内存能够处理,因此可以在同一个GPU上运行多个任务。

是启动一个包含所有4个GPU的强大实例并在一个实例上运行所有任务更好呢?还是选择多个每个配备1个GPU的实例更好呢?

我在考虑几个因素:

  • 读取文件的延迟。在一台机器上使用本地磁盘在延迟方面应该更快,但这将从一个来源进行大量读取。这会不会引起任何问题?
  • 为了扩展IOPS,我需要相当多的vCPU和大量的内存,因为显然GPC是通过这种方式扩展IOPS的。解决这个问题的最佳方法是什么?如果有人有更多信息,非常感谢提供指导。
  • 如果将来为了节省成本/降低性能,我需要降级,我可以简单地停止实例并更改我的规格。
  • 将所有内容放在一台机器上会更容易操作。我知道在生产环境中我会希望采用更分散的方法,但这仅限于实验阶段。

这些是我的主要想法。我有遗漏的地方吗?感谢所有帮助。


回答:

最终选择了一台配有多GPU的机器。只需将任务分配给不同的GPU来利用内存即可。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注