MindSpore Serving是一个轻量级、高性能的服务模块,旨在帮助MindSpore开发者在生产环境中高效部署在线推理服务。当用户使用MindSpore完成模型训练后,导出MindSpore模型,即可使用MindSpore Serving创建该模型的推理服务。当前Serving仅支持Ascend 910。
通过pip安装MindSpore后,Serving可执行程序位于/{your python path}/lib/python3.7/site-packages/mindspore/ms_serving 。
启动Serving服务命令如下
ms_serving [--help] [--model_path <MODEL_PATH>] [--model_name <MODEL_NAME>]
[--port <PORT>] [--device_id <DEVICE_ID>]
参数含义如下
| 参数名 | 属性 | 功能描述 | 参数类型 | 默认值 | 取值范围 |
|---|---|---|---|---|---|
--help |
可选 | 显示启动命令的帮助信息。 | - | - | - |
--model_path=<MODEL_PATH> |
必选 | 指定待加载模型的存放路径。 | String | 空 | - |
--model_name=<MODEL_NAME> |
必选 | 指定待加载模型的文件名。 | String | 空 | - |
--port=<PORT> |
可选 | 指定Serving对外的端口号。 | Integer | 5500 | 1~65535 |
--device_id=<DEVICE_ID> |
可选 | 指定使用的设备号 | Integer | 0 | 0~7 |
执行启动命令前,需将
/{your python path}/lib:/{your python path}/lib/python3.7/site-packages/mindspore/lib对应的路径加入到环境变量LD_LIBRARY_PATH中 。
下面以一个简单的网络为例,演示MindSpore Serving如何使用。
使用add_model.py,构造一个只有Add算子的网络,并导出MindSpore推理部署模型。
python add_model.py
执行脚本,生成tensor_add.mindir文件,该模型的输入为两个shape为[2,2]的二维Tensor,输出结果是两个输入Tensor之和。
ms_serving --model_path={model directory} --model_name=tensor_add.mindir
当服务端打印日志MS Serving Listening on 0.0.0.0:5500时,表示Serving服务已加载推理模型完毕。
获取ms_client.py,启动Python客户端。
python ms_client.py
显示如下返回值说明Serving服务已正确执行Add网络的推理。
ms client received:
[[2. 2.]
[2. 2.]]
获取客户端示例执行程序
首先需要下载MindSpore源码。有两种方式编译并获取客户端示例程序:
从源码编译MindSpore时候,将会编译产生Serving C++客户端示例程序,可在build/mindspore/serving/example/cpp_client目录下找到ms_client可执行程序。
独立编译:
需要先预装gRPC。
然后,在MindSpore源码路径中执行如下命令,编译一个客户端示例程序。
cd mindspore/serving/example/cpp_client
mkdir build && cd build
cmake -D GRPC_PATH={grpc_install_dir} ..
make
其中{grpc_install_dir}为gRPC安装时的路径,请替换为实际gRPC安装路径。
启动客户端
执行ms_client,向Serving服务发送推理请求:
./ms_client --target=localhost:5500
显示如下返回值说明Serving服务已正确执行Add网络的推理。
Compute [[1, 2], [3, 4]] + [[1, 2], [3, 4]]
Add result is 2 4 6 8
client received: RPC OK
客户端代码主要包含以下几个部分:
class MSClient {
public:
explicit MSClient(std::shared_ptr<Channel> channel) : stub_(MSService::NewStub(channel)) {}
private:
std::unique_ptr<MSService::Stub> stub_;
};MSClient client(grpc::CreateChannel(target_str, grpc::InsecureChannelCredentials()));
MSClient client(grpc::CreateChannel(target_str, grpc::InsecureChannelCredentials()));
PredictRequest request;
PredictReply reply;
ClientContext context;
//construct tensor
Tensor data;
//set shape
TensorShape shape;
shape.add_dims(4);
*data.mutable_tensor_shape() = shape;
//set type
data.set_tensor_type(ms_serving::MS_FLOAT32);
std::vector<float> input_data{1, 2, 3, 4};
//set datas
data.set_data(input_data.data(), input_data.size());
//add tensor to request
*request.add_data() = data;
*request.add_data() = data;
Status status = stub_->Predict(&context, request, &reply);
完整代码参考ms_client。