avatar
gRPC比rest API好在哪里?# Programming - 葵花宝典
b*t
1
1. 学习他们的入场时机,我们版上的同学频频入市,频频出事,胜率上已经吃很大亏
了;
2. 学习他们入场的方式,比如巴菲特买的GS优先股,每年10%的yield还有转换成一般
股票的机会,这样做亏的几率有多大呢? 你们可以算一算,然后和我们版上所有提到
过的粮票比比。
3. 学习他们入场资金的比例,虽然大户入场动辄几十亿,但是和他们可以动用的资金
相比还是占很小的比例的,大户们动手了,但是留有足够的后手,未雨绸缪,大家一定
要留有备用资金,不要动辄孤军深入,没有后援。
4. 学习大户选择投资的对象,李嘉诚为什么没有投资备受打压的中概太阳能呢,也许
版上的同学永远不会明白,如果有几十万,那个什么LDK, STP, CSIQ,YGE起码要狂抄
一气吧,想想为什么。
我们要学习大户的野心,和因为这种野心带来的冷静。职业杀手都是不经常动手的,但
是动手就要人性命,我们都有一颗想要赚钱的心,但是这种欲望还没有狂野到控制我们
急躁的程度,凡是有大野心的人,也是非常有耐心的人。 我希望现在暂时受困的同学
都抱有一种苏武牧羊,卧薪尝胆的心态,而不是像退出的那些人一样没有精神,没有斗
志。希望版上的青铜
avatar
x*5
2
1,邓紫棋:喜欢没商量,虽然没汪峰摇滚,但不沙哑的存在合我胃口,何况小姑娘这
么萌这么可爱。
2,罗琦:唱功没的说,希望听她多唱几首。听她唱歌的机会太少了。
3,韦唯:虽然老调,但这么好听的中音难得听到
4,曹格:喜欢不同于赵传的味道,很好听,被淘汰实在可惜
5,周笔畅:烦人的形象,歌还别致
6,张宇:不是我的菜,听着有点憋闷
7,韩磊:不喜欢就是不喜欢,真希望被淘汰的是他,没惊喜太老套,都是一个劲儿
avatar
s*k
3
看到很多都在从REST API转向gRPC,是因为JSON的格式太繁琐?protobuf好?还是说内
部应用不需要expose interface,gRPC更有效率?
avatar
d*l
4
see 2208
avatar
P*r
5
1, 5, 2, 4, 3, 6, 7
跟你略有同感
感觉评委中上年级的人太多

【在 x****5 的大作中提到】
: 1,邓紫棋:喜欢没商量,虽然没汪峰摇滚,但不沙哑的存在合我胃口,何况小姑娘这
: 么萌这么可爱。
: 2,罗琦:唱功没的说,希望听她多唱几首。听她唱歌的机会太少了。
: 3,韦唯:虽然老调,但这么好听的中音难得听到
: 4,曹格:喜欢不同于赵传的味道,很好听,被淘汰实在可惜
: 5,周笔畅:烦人的形象,歌还别致
: 6,张宇:不是我的菜,听着有点憋闷
: 7,韩磊:不喜欢就是不喜欢,真希望被淘汰的是他,没惊喜太老套,都是一个劲儿

avatar
w*g
6
我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
主要是好在HTTP是标准,服务器/客户的库和工具都很多。
并且协议非常flexible,可以很容易地往里面加调试用的内容。
那些特定协议我觉得主要是性能好。

【在 s********k 的大作中提到】
: 看到很多都在从REST API转向gRPC,是因为JSON的格式太繁琐?protobuf好?还是说内
: 部应用不需要expose interface,gRPC更有效率?

avatar
b*t
7
1. 学习他们的入场时机,我们版上的同学频频入市,频频出事,胜率上已经吃很大亏
了;
2. 学习他们入场的方式,比如巴菲特买的GS优先股,每年10%的yield还有转换成一般
股票的机会,这样做亏的几率有多大呢? 你们可以算一算,然后和我们版上所有提到
过的粮票比比。
3. 学习他们入场资金的比例,虽然大户入场动辄几十亿,但是和他们可以动用的资金
相比还是占很小的比例的,大户们动手了,但是留有足够的后手,未雨绸缪,大家一定
要留有备用资金,不要动辄孤军深入,没有后援。
4. 学习大户选择投资的对象,李嘉诚为什么没有投资备受打压的中概太阳能呢,也许
版上的同学永远不会明白,如果有几十万,那个什么LDK, STP, CSIQ,YGE起码要狂抄
一气吧,想想为什么。
我们要学习大户的野心,和因为这种野心带来的冷静。职业杀手都是不经常动手的,但
是动手就要人性命,我们都有一颗想要赚钱的心,但是这种欲望还没有狂野到控制我们
急躁的程度,凡是有大野心的人,也是非常有耐心的人。 我希望现在暂时受困的同学
都抱有一种苏武牧羊,卧薪尝胆的心态,而不是像退出的那些人一样没有精神,没有斗
志。希望版上的青铜斗士能赶快成长,努力学习,爆发你的小宇宙!不经历风雨,怎能
见彩虹,危机后你们必将成为一代黄金斗士!
avatar
M*u
8
前两个确实不错。

【在 x****5 的大作中提到】
: 1,邓紫棋:喜欢没商量,虽然没汪峰摇滚,但不沙哑的存在合我胃口,何况小姑娘这
: 么萌这么可爱。
: 2,罗琦:唱功没的说,希望听她多唱几首。听她唱歌的机会太少了。
: 3,韦唯:虽然老调,但这么好听的中音难得听到
: 4,曹格:喜欢不同于赵传的味道,很好听,被淘汰实在可惜
: 5,周笔畅:烦人的形象,歌还别致
: 6,张宇:不是我的菜,听着有点憋闷
: 7,韩磊:不喜欢就是不喜欢,真希望被淘汰的是他,没惊喜太老套,都是一个劲儿

avatar
L*8
9
有啥推荐的开源库?

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
d*l
10
see 2208
avatar
C*s
11
这个邓紫棋还是算了吧,台湾宰,唱的都快憋死了

【在 x****5 的大作中提到】
: 1,邓紫棋:喜欢没商量,虽然没汪峰摇滚,但不沙哑的存在合我胃口,何况小姑娘这
: 么萌这么可爱。
: 2,罗琦:唱功没的说,希望听她多唱几首。听她唱歌的机会太少了。
: 3,韦唯:虽然老调,但这么好听的中音难得听到
: 4,曹格:喜欢不同于赵传的味道,很好听,被淘汰实在可惜
: 5,周笔畅:烦人的形象,歌还别致
: 6,张宇:不是我的菜,听着有点憋闷
: 7,韩磊:不喜欢就是不喜欢,真希望被淘汰的是他,没惊喜太老套,都是一个劲儿

avatar
w*g
12
C++的话我用simple-web-server和json11
python的话就是flask和django。

【在 L****8 的大作中提到】
: 有啥推荐的开源库?
avatar
F*s
13
十年了,很多当时的帖子历历在目,绝大多删掉了,不过当时的股版情绪还记得很清楚
,股市轮回百年不变。
avatar
L*8
14
Qt的network库 如何?

【在 w***g 的大作中提到】
: C++的话我用simple-web-server和json11
: python的话就是flask和django。

avatar
d*e
15
前辈能否总结下当时的好贴或者自己的经验?
现在的蝌蚪青蛙都是初生牛犊不怕虎

【在 F****s 的大作中提到】
: 十年了,很多当时的帖子历历在目,绝大多删掉了,不过当时的股版情绪还记得很清楚
: ,股市轮回百年不变。

avatar
s*k
16
大牛,在分布式机器学习上倒是gRPC用的多?

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
p*o
17
试图理解大户的思路,但是不要学他们。小家小户的幸福日子他们未必有。认清自己是
非专业小户,投资不是投机,放过自己。
avatar
l*m
18
最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
比较高。TF本来就是一堆proto,这样至少减少一次转换。
grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

【在 s********k 的大作中提到】
: 大牛,在分布式机器学习上倒是gRPC用的多?
avatar
p*o
19
噢,突然明白你为什么翻出来这个了,是因为08-10相对09-03?

:十年了,很多当时的帖子历历在目,绝大多删掉了,不过当时的股版情绪还记得很清
楚,股市轮回百年不变。
avatar
d*r
20
"grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟"
这么脆弱

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
F*s
21
没有具体对比,时代不同了,现在去对比上个世纪80年代,20年代,都没有意义了。

【在 p*******o 的大作中提到】
: 噢,突然明白你为什么翻出来这个了,是因为08-10相对09-03?
:
: :十年了,很多当时的帖子历历在目,绝大多删掉了,不过当时的股版情绪还记得很清
: 楚,股市轮回百年不变。

avatar
w*g
22
分布式机器学习轮子内部的东西你去操心他干嘛?

【在 s********k 的大作中提到】
: 大牛,在分布式机器学习上倒是gRPC用的多?
avatar
w*g
23
你这个太牛了,要不open-source了造福下大家?
顺便请教下,你的inference server是GPU吗?是否用到了类似task-queue这种
机制?电费咋样?

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
k*i
24
inference server 没狗倒,类似
https://github.com/dmlc/ps-lite 吗?

:最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream
起一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
:比较高。TF本来就是一堆proto,这样至少减少一次转换。
avatar
a9
25
xml还是算了

说内

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
s*k
26
应该说很多公司内部:比如ML和其他service之间都在用gRPC,可能就开放给外面的API
不用

【在 w***g 的大作中提到】
: 分布式机器学习轮子内部的东西你去操心他干嘛?
avatar
s*k
27
大牛啊,这个inference server共享的意思是所有的video都从一个server拿参数做
inference?还是所有video都送到一个server上去做inference?

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
s*e
28
tensorflow serving 里面提到batch processing with configurable latency。
楼主如果用gpu也是这个思路么? 用什么存那个batch?

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
s*e
29
大牛可以分享下文件交换的gPRC代码要怎么写?
如果不用RPC,是不是可以考虑redis等pub/sub services当shared memory来用?
现在要交换的文件都是图片, 1MB 到6MB一张, 最后希望做到detection和
classification一套下来做到接近real time(30fps),越接近越好,如果还有剩余性能
就做tracking。模型已经train好了
单GPU做IPC肯定是不满足性能要求的,被迫要上多GPU或者多机,单机多GPU能搞掂最好
,jetson 能搞出来更好
还是有整套方案可以介绍? tensorflow serving 那套感觉目前比较多坑,kubernete
https://medium.com/zendesk-engineering/how-zendesk-serves-tensorflow-models-
in-production-751ee22f0f4b
而且这个项目有硬性要求还不能上公共云

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
s*e
30
有整套方案可以介绍? tensorflow serving 那套感觉目前比较多坑,kubernete
https://medium.com/zendesk-engineering/how-zendesk-serves-tensorflow-models-
in-production-751ee22f0f4b
而且这个项目有硬性要求还不能上公共云

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
s*e
31


【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
n*p
32
gRPC just another RPC. Remind me RMI and CORBA, no benefit to move from REST
to it.

【在 s********k 的大作中提到】
: 看到很多都在从REST API转向gRPC,是因为JSON的格式太繁琐?protobuf好?还是说内
: 部应用不需要expose interface,gRPC更有效率?

avatar
s*2
33
grpc支持bidirectional streaming

kubernete
models-

【在 s*****e 的大作中提到】
: 大牛可以分享下文件交换的gPRC代码要怎么写?
: 如果不用RPC,是不是可以考虑redis等pub/sub services当shared memory来用?
: 现在要交换的文件都是图片, 1MB 到6MB一张, 最后希望做到detection和
: classification一套下来做到接近real time(30fps),越接近越好,如果还有剩余性能
: 就做tracking。模型已经train好了
: 单GPU做IPC肯定是不满足性能要求的,被迫要上多GPU或者多机,单机多GPU能搞掂最好
: ,jetson 能搞出来更好
: 还是有整套方案可以介绍? tensorflow serving 那套感觉目前比较多坑,kubernete
: https://medium.com/zendesk-engineering/how-zendesk-serves-tensorflow-models-
: in-production-751ee22f0f4b

avatar
s*e
34
我有3个python process,其中两个会一秒钟内反复找第三个process要图片。
目前我使用flask的restful api,把opencv里面读出来的图片base64 encode成string再
发。但是现在response是blocking的.如果两个python process同时request,就是一个
一个地回复,太慢了.
有方案介绍么?我是否应该看看tornado?

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
w*g
35
stack overflow现找了一个. Tornado不值得看. 你的时间都耗在了图像处理上,
这点时间靠tornado根本省不回来.
if __name__ == '__main__':
app.run(threaded=True)
# Alternately
# app.run(processes=3)

【在 s*****e 的大作中提到】
: 我有3个python process,其中两个会一秒钟内反复找第三个process要图片。
: 目前我使用flask的restful api,把opencv里面读出来的图片base64 encode成string再
: 发。但是现在response是blocking的.如果两个python process同时request,就是一个
: 一个地回复,太慢了.
: 有方案介绍么?我是否应该看看tornado?

avatar
d*r
36
异步任务可以用 celery

【在 s*****e 的大作中提到】
: 我有3个python process,其中两个会一秒钟内反复找第三个process要图片。
: 目前我使用flask的restful api,把opencv里面读出来的图片base64 encode成string再
: 发。但是现在response是blocking的.如果两个python process同时request,就是一个
: 一个地回复,太慢了.
: 有方案介绍么?我是否应该看看tornado?

avatar
s*e
37
谢谢!
由于GIL的缘故,我是不是应该用app.run(processes=3)而不要用thread?
话说我现在用restful BASE64 encode成string传图片的方法合理么? local network
传,小图片1MB以下的 25MB/S, 4MB-6mb的只有2MB/s。 我现在是单张单张地发。 我
是不是应该写raw socket或者什么办法来做图片收发这个事情?这里的delay还是不小
的,gRPC default只能支持4MB

【在 w***g 的大作中提到】
: stack overflow现找了一个. Tornado不值得看. 你的时间都耗在了图像处理上,
: 这点时间靠tornado根本省不回来.
: if __name__ == '__main__':
: app.run(threaded=True)
: # Alternately
: # app.run(processes=3)

avatar
s*k
38
GIL的多个process不会影响吧,还有就是换python 3,或者coroutine,不过要是
computation heavy那就不选Python就是

network

【在 s*****e 的大作中提到】
: 谢谢!
: 由于GIL的缘故,我是不是应该用app.run(processes=3)而不要用thread?
: 话说我现在用restful BASE64 encode成string传图片的方法合理么? local network
: 传,小图片1MB以下的 25MB/S, 4MB-6mb的只有2MB/s。 我现在是单张单张地发。 我
: 是不是应该写raw socket或者什么办法来做图片收发这个事情?这里的delay还是不小
: 的,gRPC default只能支持4MB

avatar
s*k
39
看到很多都在从REST API转向gRPC,是因为JSON的格式太繁琐?protobuf好?还是说内
部应用不需要expose interface,gRPC更有效率?
avatar
w*g
40
我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
主要是好在HTTP是标准,服务器/客户的库和工具都很多。
并且协议非常flexible,可以很容易地往里面加调试用的内容。
那些特定协议我觉得主要是性能好。

【在 s********k 的大作中提到】
: 看到很多都在从REST API转向gRPC,是因为JSON的格式太繁琐?protobuf好?还是说内
: 部应用不需要expose interface,gRPC更有效率?

avatar
L*8
41
有啥推荐的开源库?

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
w*g
42
C++的话我用simple-web-server和json11
python的话就是flask和django。

【在 L****8 的大作中提到】
: 有啥推荐的开源库?
avatar
L*8
43
Qt的network库 如何?

【在 w***g 的大作中提到】
: C++的话我用simple-web-server和json11
: python的话就是flask和django。

avatar
s*k
44
大牛,在分布式机器学习上倒是gRPC用的多?

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
l*m
45
最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
比较高。TF本来就是一堆proto,这样至少减少一次转换。
grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

【在 s********k 的大作中提到】
: 大牛,在分布式机器学习上倒是gRPC用的多?
avatar
d*r
46
"grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟"
这么脆弱

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
w*g
47
分布式机器学习轮子内部的东西你去操心他干嘛?

【在 s********k 的大作中提到】
: 大牛,在分布式机器学习上倒是gRPC用的多?
avatar
w*g
48
你这个太牛了,要不open-source了造福下大家?
顺便请教下,你的inference server是GPU吗?是否用到了类似task-queue这种
机制?电费咋样?

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
k*i
49
inference server 没狗倒,类似
https://github.com/dmlc/ps-lite 吗?

:最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream
起一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
:比较高。TF本来就是一堆proto,这样至少减少一次转换。
avatar
a9
50
xml还是算了

说内

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
s*k
51
应该说很多公司内部:比如ML和其他service之间都在用gRPC,可能就开放给外面的API
不用

【在 w***g 的大作中提到】
: 分布式机器学习轮子内部的东西你去操心他干嘛?
avatar
s*k
52
大牛啊,这个inference server共享的意思是所有的video都从一个server拿参数做
inference?还是所有video都送到一个server上去做inference?

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
s*e
53
tensorflow serving 里面提到batch processing with configurable latency。
楼主如果用gpu也是这个思路么? 用什么存那个batch?

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
s*e
54
大牛可以分享下文件交换的gPRC代码要怎么写?
如果不用RPC,是不是可以考虑redis等pub/sub services当shared memory来用?
现在要交换的文件都是图片, 1MB 到6MB一张, 最后希望做到detection和
classification一套下来做到接近real time(30fps),越接近越好,如果还有剩余性能
就做tracking。模型已经train好了
单GPU做IPC肯定是不满足性能要求的,被迫要上多GPU或者多机,单机多GPU能搞掂最好
,jetson 能搞出来更好
还是有整套方案可以介绍? tensorflow serving 那套感觉目前比较多坑,kubernete
https://medium.com/zendesk-engineering/how-zendesk-serves-tensorflow-models-
in-production-751ee22f0f4b
而且这个项目有硬性要求还不能上公共云

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
s*e
55
有整套方案可以介绍? tensorflow serving 那套感觉目前比较多坑,kubernete
https://medium.com/zendesk-engineering/how-zendesk-serves-tensorflow-models-
in-production-751ee22f0f4b
而且这个项目有硬性要求还不能上公共云

【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
s*e
56


【在 l*******m 的大作中提到】
: 最近我把自己家的安防系统升级了,全都深度学习了。为了避免每一个video stream起
: 一个TF session, 用grpc开了一个inference server共享。好处是cpu和带宽的利用率
: 比较高。TF本来就是一堆proto,这样至少减少一次转换。
: grpc在自己的机器间用没问题,但最好不要用于开放的客户端。因为还很不成熟,我发
: 几个恶意的requests, 居然c++的server就crash了!!! 这个在web中,基本不会发生。
: grpc是基于http/2,http/2也很不成熟, 而且是binary不是text,前面提到的crash就
: 很有可能因为http/2 header的异常处理有问题。总之合作的正常使用是ok的

avatar
n*p
57
gRPC just another RPC. Remind me RMI and CORBA, no benefit to move from REST
to it.

【在 s********k 的大作中提到】
: 看到很多都在从REST API转向gRPC,是因为JSON的格式太繁琐?protobuf好?还是说内
: 部应用不需要expose interface,gRPC更有效率?

avatar
s*2
58
grpc支持bidirectional streaming

kubernete
models-

【在 s*****e 的大作中提到】
: 大牛可以分享下文件交换的gPRC代码要怎么写?
: 如果不用RPC,是不是可以考虑redis等pub/sub services当shared memory来用?
: 现在要交换的文件都是图片, 1MB 到6MB一张, 最后希望做到detection和
: classification一套下来做到接近real time(30fps),越接近越好,如果还有剩余性能
: 就做tracking。模型已经train好了
: 单GPU做IPC肯定是不满足性能要求的,被迫要上多GPU或者多机,单机多GPU能搞掂最好
: ,jetson 能搞出来更好
: 还是有整套方案可以介绍? tensorflow serving 那套感觉目前比较多坑,kubernete
: https://medium.com/zendesk-engineering/how-zendesk-serves-tensorflow-models-
: in-production-751ee22f0f4b

avatar
s*e
59
我有3个python process,其中两个会一秒钟内反复找第三个process要图片。
目前我使用flask的restful api,把opencv里面读出来的图片base64 encode成string再
发。但是现在response是blocking的.如果两个python process同时request,就是一个
一个地回复,太慢了.
有方案介绍么?我是否应该看看tornado?

【在 w***g 的大作中提到】
: 我从RPC到xmlRPC,一直用到thrift/gRPC。最后觉得rest API最好。
: 主要是好在HTTP是标准,服务器/客户的库和工具都很多。
: 并且协议非常flexible,可以很容易地往里面加调试用的内容。
: 那些特定协议我觉得主要是性能好。

avatar
w*g
60
stack overflow现找了一个. Tornado不值得看. 你的时间都耗在了图像处理上,
这点时间靠tornado根本省不回来.
if __name__ == '__main__':
app.run(threaded=True)
# Alternately
# app.run(processes=3)

【在 s*****e 的大作中提到】
: 我有3个python process,其中两个会一秒钟内反复找第三个process要图片。
: 目前我使用flask的restful api,把opencv里面读出来的图片base64 encode成string再
: 发。但是现在response是blocking的.如果两个python process同时request,就是一个
: 一个地回复,太慢了.
: 有方案介绍么?我是否应该看看tornado?

avatar
d*r
61
异步任务可以用 celery

【在 s*****e 的大作中提到】
: 我有3个python process,其中两个会一秒钟内反复找第三个process要图片。
: 目前我使用flask的restful api,把opencv里面读出来的图片base64 encode成string再
: 发。但是现在response是blocking的.如果两个python process同时request,就是一个
: 一个地回复,太慢了.
: 有方案介绍么?我是否应该看看tornado?

avatar
s*e
62
谢谢!
由于GIL的缘故,我是不是应该用app.run(processes=3)而不要用thread?
话说我现在用restful BASE64 encode成string传图片的方法合理么? local network
传,小图片1MB以下的 25MB/S, 4MB-6mb的只有2MB/s。 我现在是单张单张地发。 我
是不是应该写raw socket或者什么办法来做图片收发这个事情?这里的delay还是不小
的,gRPC default只能支持4MB

【在 w***g 的大作中提到】
: stack overflow现找了一个. Tornado不值得看. 你的时间都耗在了图像处理上,
: 这点时间靠tornado根本省不回来.
: if __name__ == '__main__':
: app.run(threaded=True)
: # Alternately
: # app.run(processes=3)

avatar
s*k
63
GIL的多个process不会影响吧,还有就是换python 3,或者coroutine,不过要是
computation heavy那就不选Python就是

network

【在 s*****e 的大作中提到】
: 谢谢!
: 由于GIL的缘故,我是不是应该用app.run(processes=3)而不要用thread?
: 话说我现在用restful BASE64 encode成string传图片的方法合理么? local network
: 传,小图片1MB以下的 25MB/S, 4MB-6mb的只有2MB/s。 我现在是单张单张地发。 我
: 是不是应该写raw socket或者什么办法来做图片收发这个事情?这里的delay还是不小
: 的,gRPC default只能支持4MB

avatar
f*2
64
gRPC现在成熟到可以开放给客户了吗?


: gRPC just another RPC. Remind me RMI and CORBA, no benefit to move
from REST

: to it.



【在 n***p 的大作中提到】
: gRPC just another RPC. Remind me RMI and CORBA, no benefit to move from REST
: to it.

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。