有谁知道如何创建用于张量流服务的 C# 客户端?
我的张量流服务安装:
我使用张量流服务 dockerfile 安装了张量流服务,然后在容器内执行了以下操作:
pip install tensorflow
pip install tensorflow-serving-api
echo "deb [arch=amd64] http://storage.googleapis.com/tensorflow-serving-apt stable tensorflow-model-server tensorflow-model-server-universal" | tee /etc/apt/sources.list.d/tensorflow-serving.list
curl https://storage.googleapis.com/tensorflow-serving-apt/tensorflow-serving.release.pub.gpg | apt-key add -
apt-get update && apt-get install tensorflow-model-server
然后我运行张量流服务服务器:
tensorflow_model_server --port=9000 --model_name=example_model --model_base_path=/serving/my_model_2 &> my_log &
其中 my_model_2 包含我想要服务的导出的张量流模型。
鉴于此信息,我有以下问题:
- 我是否需要以不同的方式安装tensorflow services才能创建C#客户端?如果我需要以不同的方式安装它;你能告诉我怎么做吗?
- 您能否让我大致了解一下我必须做什么才能实现我的目标?我的意思是,我怀疑我必须以不同的方式安装 tf 服务才能创建显式 .proto 文件。如果你能给我一个总体思路和一个例子,我对此有点迷失,我将不胜感激。
据我了解,您需要 proto 文件来为 grpc 服务生成 C# 中的张量流服务客户端。
https://github.com/Wertugo/TensorFlowServingCSharpClient https://github.com/Wertugo/TensorFlowServingCSharpClient这是我正在遵循的一个例子。它与 C# 客户端的 MNIST 示例相同。
希望这可以帮助。
如果您有更好的选择,请在此更新。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)