|
|
1
16
因此,我花了好几年的时间在pull请求中摸索,终于找到了一个代码示例。对于下一个和我有同样问题的人,这里有一个如何做到这一点的例子。(你需要
基于此拉取请求(在撰写本文时,该请求尚未被接受,并且由于需要审查而被关闭): https://github.com/tensorflow/serving/pull/1065
|
|
|
2
3
添加模型
注意到@Karl的答案有一点不同-使用
|
|
|
3
0
我并没有在运行时使用配置文件来提供更多的模型,而是使用了servings的RESTAPI。我是这样做的。
我知道这个问题是关于更新配置文件的,但我在做上述解决方案之前来这里寻找答案。因此,如果其他人来这里希望提供多个模型,并在运行时添加更多,请使用上述模式。 |
|
|
4
0
如果您正在使用中描述的方法 this answer ,请注意,实际上您正在启动多个tensorflow模型服务器实例,而不是单个模型服务器,从而有效地使服务器竞争资源,而不是协同工作以优化尾部延迟。 |