Redian新闻
>
NVIDIA要把DLA源代码开放
avatar
NVIDIA要把DLA源代码开放# Stock
m*n
1
NVDA把Deep Learning Accelerator(DLA)开放,让别的公司拿去做它们自己的ASIC里面
,标准接口,能和CUDA无缝对接,这架势,要一统Inference的天下。
avatar
d*m
2
意思是其他厂商生产的芯片只要符合标准,就支持CUDA?
这无非就是想要自己的CUDA统一 Deep Learning的未来啊,小厂商跟风,有利有弊,短
期看毫无疑问有利。
难道NVDA还可以继续上车?

【在 m*****n 的大作中提到】
: NVDA把Deep Learning Accelerator(DLA)开放,让别的公司拿去做它们自己的ASIC里面
: ,标准接口,能和CUDA无缝对接,这架势,要一统Inference的天下。

avatar
c*t
3
真要上300?
avatar
C*5
4
这个硬件开源是咋回事?硅公进来说说呗?

【在 m*****n 的大作中提到】
: NVDA把Deep Learning Accelerator(DLA)开放,让别的公司拿去做它们自己的ASIC里面
: ,标准接口,能和CUDA无缝对接,这架势,要一统Inference的天下。

avatar
C*5
5
以NVDA的功力,搞的类似TPU的Asic还不是分分钟。和现有的所有基于cuda的算法无缝
集成,以后所有的家电,包括吹风机,都得带DLA。

【在 d*******m 的大作中提到】
: 意思是其他厂商生产的芯片只要符合标准,就支持CUDA?
: 这无非就是想要自己的CUDA统一 Deep Learning的未来啊,小厂商跟风,有利有弊,短
: 期看毫无疑问有利。
: 难道NVDA还可以继续上车?

avatar
s*d
6
NVDA wanna be the ARM of deep learning

【在 C*****5 的大作中提到】
: 这个硬件开源是咋回事?硅公进来说说呗?
avatar
m*n
7
我猜是类似于ARM IP,第一个用户,没说的,肯定是AMD。

【在 C*****5 的大作中提到】
: 这个硬件开源是咋回事?硅公进来说说呗?
avatar
C*5
8
小武说的哥都湿了

【在 s***d 的大作中提到】
: NVDA wanna be the ARM of deep learning
avatar
a*g
9
水真多

【在 C*****5 的大作中提到】
: 小武说的哥都湿了
avatar
C*5
10
没礼貌!

【在 a*******g 的大作中提到】
: 水真多
avatar
C*5
11
正确的姿势是把问号去掉

【在 c**t 的大作中提到】
: 真要上300?
avatar
a*g
12
身体却很诚实!

【在 C*****5 的大作中提到】
: 没礼貌!
avatar
m*n
13
这两天,北京在开The Belt and Road Forum,一带一路(简称带路),全球带路党的
头头面面,全跑北京去了。军版带路党们,包括你在内,好日子指日可待!

【在 a*******g 的大作中提到】
: 身体却很诚实!
avatar
a*g
14
马歇尔计划能成功是因为给西欧提供急需的美元信贷。西欧的人才和技术都在只是因为
世界大战,耗光了所有外储和资本而已。是优质的信贷资产。
经互会吗,不说了,更多的是以苏联为中心的国际版计划经济。看看苏联本土能搞成啥
样,就知道经互会能搞成啥样。
一代一路,给伊斯兰世界提供资本? 呵呵呵,伊斯兰教好像不允许利息存在啊。

【在 m*****n 的大作中提到】
: 这两天,北京在开The Belt and Road Forum,一带一路(简称带路),全球带路党的
: 头头面面,全跑北京去了。军版带路党们,包括你在内,好日子指日可待!

avatar
p*f
15
开源的这个到底是做training还是做inference?
尼玛,如果AMD在自己的GPU里加入这个接口,不是和NV直接竞争了吗?
AMD干脆不推要OpenGL,直接卖Radeon+CUDA也可以干趴NV?

【在 m*****n 的大作中提到】
: 我猜是类似于ARM IP,第一个用户,没说的,肯定是AMD。
avatar
C*5
16
当然是inference

【在 p**f 的大作中提到】
: 开源的这个到底是做training还是做inference?
: 尼玛,如果AMD在自己的GPU里加入这个接口,不是和NV直接竞争了吗?
: AMD干脆不推要OpenGL,直接卖Radeon+CUDA也可以干趴NV?

avatar
m*n
17
我的理解是inference

【在 p**f 的大作中提到】
: 开源的这个到底是做training还是做inference?
: 尼玛,如果AMD在自己的GPU里加入这个接口,不是和NV直接竞争了吗?
: AMD干脆不推要OpenGL,直接卖Radeon+CUDA也可以干趴NV?

avatar
l*m
18
AMD的芯片比NVDA 的慢一半

【在 p**f 的大作中提到】
: 开源的这个到底是做training还是做inference?
: 尼玛,如果AMD在自己的GPU里加入这个接口,不是和NV直接竞争了吗?
: AMD干脆不推要OpenGL,直接卖Radeon+CUDA也可以干趴NV?

avatar
p*f
19
快要看不懂了。。。
NVIDIA’s Deep Learning Accelerator (DLA)
With this context in mind, then, it makes sense for NVIDIA to build a fixed
function accelerator that acts as an efficient inference engine as part of a
larger solution. NVIDIA announced that its next generation DrivePX platform
for autonomous vehicles, the Xavier SOC, would consist of ARM CPU cores,
Volta GPU cores, and a fixed function Deep Learning Accelerator (DLA) for
inference. This approach, the company says, will result in higher
performance at lower power, while maintaining the flexibility for
customization that its automotive OEMs demand.
NVIDIA has always focused on solving very hard, computationally complex
problems. So it has no interest in designing, as Huang puts it, a deep
learning chip for smart lawn mowers, or a deep learning chip for
refrigerators, or a deep learning chip for streetlamps. (All might be
different.) By deciding to open source the DLA, NVIDIA is enabling its rich
deep learning ecosystem to extend to include low cost, high volume and low
power ASICs and SOCs, allowing other companies and researchers to build
their own chips using this accelerator. And of course it all runs the same
CUDA software used by NVIDIA GPUs. The company, in effect, is saying, “OK,
if you want to build a TPU for your little widget, it’s probably best to
build it on our technology, since nobody knows more about accelerating AI
than NVIDIA.” Meanwhile NVIDIA can focus on building high margin, high
value platforms needed in the datacenter and at the edge.
如果inference部分统一了,狗狗的TPU嗝屁了。那智能电冰箱,智能割草机的training
怎么弄?总不能放到cloud上去做training吧。。。

【在 C*****5 的大作中提到】
: 当然是inference
avatar
y*u
20
看这个
https://www.forbes.com/sites/moorinsights/2017/05/15/why-nvidia-is-building-
its-own-tpu/#1c61ee47347f

fixed
a
platform

【在 p**f 的大作中提到】
: 快要看不懂了。。。
: NVIDIA’s Deep Learning Accelerator (DLA)
: With this context in mind, then, it makes sense for NVIDIA to build a fixed
: function accelerator that acts as an efficient inference engine as part of a
: larger solution. NVIDIA announced that its next generation DrivePX platform
: for autonomous vehicles, the Xavier SOC, would consist of ARM CPU cores,
: Volta GPU cores, and a fixed function Deep Learning Accelerator (DLA) for
: inference. This approach, the company says, will result in higher
: performance at lower power, while maintaining the flexibility for
: customization that its automotive OEMs demand.

avatar
C*5
21
当然是用GPU训练好了再deploy到DLA啊,而且deploy之前要用TensorRT优化一下。

fixed
a
platform

【在 p**f 的大作中提到】
: 快要看不懂了。。。
: NVIDIA’s Deep Learning Accelerator (DLA)
: With this context in mind, then, it makes sense for NVIDIA to build a fixed
: function accelerator that acts as an efficient inference engine as part of a
: larger solution. NVIDIA announced that its next generation DrivePX platform
: for autonomous vehicles, the Xavier SOC, would consist of ARM CPU cores,
: Volta GPU cores, and a fixed function Deep Learning Accelerator (DLA) for
: inference. This approach, the company says, will result in higher
: performance at lower power, while maintaining the flexibility for
: customization that its automotive OEMs demand.

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。