将模型编译为可执行文件以加快推理速度?

有没有办法将包含我训练好的模型的整个Python脚本编译起来以加快推理速度?似乎加载Python解释器、Tensorflow、numpy等都需要相当长的时间。当服务器需要以非平凡的频率响应请求时,这似乎显得有些慢。

编辑

我知道可以使用Tensorflow Serving,但因为相关的成本问题,我不想使用它。


回答:

如何设置服务器?如果你使用像Django、Flask或Tornado这样的Python框架来设置服务器,你只需要预加载你的模型并将其作为全局变量,然后使用这个全局变量来进行预测。

如果你使用的是其他类型的服务器,你也可以将用于预测的整个Python脚本设置为本地服务器,并在Python服务器和Web服务器之间转换请求或响应。

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注