我正在尝试将我的本地Tensorflow模型导出,以便在Google Cloud ML上使用并进行预测。
我正在参考tensorflow服务的mnist数据示例。他们处理和使用输入/输出向量的方式与典型的在线示例有很大不同。
我不确定如何设置我的签名参数:
model_exporter.init( sess.graph.as_graph_def(), init_op = init_op, default_graph_signature = exporter.classification_signature( input_tensor = "**不确定**" , scores_tensor = "**不确定**"), named_graph_signatures = { 'inputs' : "**不确定**", 'outputs': "**不确定**" } )model_exporter.export(export_path, "**不确定**", sess)
这是我的代码的其余部分:
将此模型上传并在Google Cloud ML上使用的确切步骤是什么?他们的指南似乎是针对在云端训练的模型,而不是本地机器上的模型。
回答:
Tensorflow Serving和Google Cloud ML是两件不同的事情,不要混淆。Cloud ML是一个完全托管的解决方案(机器学习即服务),而TF Serving需要你设置和维护你的基础设施 – 它只是一个服务器。它们是无关的,并且在输入/输出处理方面有不同的要求。
你应该参考的指南是这个。你不需要使用图形签名,而是将输入和输出添加到集合中。你的代码中的更改将会是这样的:
我对你的代码进行了一些调整(实际上并未测试),但这应该能给你一个起点。