将模型编译为可执行文件以加快推理速度?

有没有办法将包含我训练好的模型的整个Python脚本编译起来以加快推理速度?似乎加载Python解释器、Tensorflow、numpy等都需要相当长的时间。当服务器需要以非平凡的频率响应请求时,这似乎显得有些慢。

编辑

我知道可以使用Tensorflow Serving,但因为相关的成本问题,我不想使用它。


回答:

如何设置服务器?如果你使用像Django、Flask或Tornado这样的Python框架来设置服务器,你只需要预加载你的模型并将其作为全局变量,然后使用这个全局变量来进行预测。

如果你使用的是其他类型的服务器,你也可以将用于预测的整个Python脚本设置为本地服务器,并在Python服务器和Web服务器之间转换请求或响应。

Related Posts

使用LSTM在Python中预测未来值

这段代码可以预测指定股票的当前日期之前的值,但不能预测…

如何在gensim的word2vec模型中查找双词组的相似性

我有一个word2vec模型,假设我使用的是googl…

dask_xgboost.predict 可以工作但无法显示 – 数据必须是一维的

我试图使用 XGBoost 创建模型。 看起来我成功地…

ML Tuning – Cross Validation in Spark

我在https://spark.apache.org/…

如何在React JS中使用fetch从REST API获取预测

我正在开发一个应用程序,其中Flask REST AP…

如何分析ML.NET中多类分类预测得分数组?

我在ML.NET中创建了一个多类分类项目。该项目可以对…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注