Redian新闻
>
mxnet 这个东西有人用么?
avatar
mxnet 这个东西有人用么?# Programming - 葵花宝典
f*s
1
定位:主力
要求:能玩一年前的游戏
预算:550-600
请大家多给提提意见,多谢啦
机箱: Antec Three Hundred Black Steel ATX
Mid Tower Computer Case
$59.95
主板:MSI 870A-G54 AM3 AMD 870 SATA 6Gb/s
USB 3.0 ATX AMD Motherboard
$99.99

显卡:EVGA 01G-P3-1450-TR GeForce GTS 450
(Fermi) 1GB 128-bit GDDR5 PCI Express 2.0
x16 HDCP Ready SLI Support Video Card
$30.00 Mail-in Rebate Card
$124.99
电源:COOLER MASTER GX Series RS650-ACAAE3-
US 650W ATX12V v2.31 80 PLUS Certified
Active PFC Power Supply
$20.00 Mail-in Rebate
$69.99
内存:G.SKILL Ripjaws Series 4GB (2 x 2GB)
240-Pin DDR3 SDRAM DDR3 1600 (PC3 12800)
Desktop Memory Model F3-12800CL9D-4GBRL
$49.99

CPU:AMD Phenom II X4 955 Black Edition
Deneb 3.2GHz Socket AM3 125W Quad-Core
Processor HDZ955FBGMBOX
$144.99

Subtotal: $549.90
另:显示器初定dell ultrasharp 21.5 inch,不知有
哪位用过没有,请提提意见
avatar
L*8
2
有啥比tensorflow theano 牛逼的地方?
avatar
h*i
4
It's Amazon's official choice of ML technology.

【在 L****8 的大作中提到】
: 有啥比tensorflow theano 牛逼的地方?
avatar
f*s
5
谢谢楼上
俺在乡下,整个州都没有mc,所以只好在newegg弄了
电源是想着等以后显卡便宜了可以再买一张搭个SLI
avatar
L*8
6
so ?

【在 h*i 的大作中提到】
: It's Amazon's official choice of ML technology.
avatar
s*k
8
据说快,资源消耗少,不过因为文档不全,除了那帮华人大牛从头开始搞得,我自己看
了下觉得上手可能难一点,不然TF,和pytorch

【在 L****8 的大作中提到】
: 有啥比tensorflow theano 牛逼的地方?
avatar
f*s
9
谢谢楼上,根据你的建议我调整了一下:
不玩SLI了,因为上SLI的主板的要多花钱,还不如直接投资到显卡上好了
显卡换成
ASUS ENGTX460 DirectCU TOP/2DI/768MD5 GeForce GTX 460 (Fermi) 768MB 192-bit
GDDR5 PCI Express 2.0 x16 HDCP Ready SLI Support ...
$20.00 Mail-in Rebate Card
$149.99
一会儿下单了
avatar
w*g
10
好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。
update:
打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。
死慢死慢死慢死慢的。据说pytorch速度不错。
caffe应该是死了。theano应该也快了。

【在 L****8 的大作中提到】
: 有啥比tensorflow theano 牛逼的地方?
avatar
t*y
11
可以考虑一下这个,便宜一点
http://www.newegg.com/Product/Product.aspx?Item=N82E16814162058&cm_re=gtx_460_768mb-_-14-162-058-_-Product
附近有microcenter的话考虑一下这个
http://www.microcenter.com/single_product_results.phtml?product_id=0341977

bit

【在 f****s 的大作中提到】
: 谢谢楼上,根据你的建议我调整了一下:
: 不玩SLI了,因为上SLI的主板的要多花钱,还不如直接投资到显卡上好了
: 显卡换成
: ASUS ENGTX460 DirectCU TOP/2DI/768MD5 GeForce GTX 460 (Fermi) 768MB 192-bit
: GDDR5 PCI Express 2.0 x16 HDCP Ready SLI Support ...
: $20.00 Mail-in Rebate Card
: $149.99
: 一会儿下单了

avatar
C*5
12
大牛,您终于上了pytorch。我是越用越喜欢。

【在 w***g 的大作中提到】
: 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。
: update:
: 打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。
: 死慢死慢死慢死慢的。据说pytorch速度不错。
: caffe应该是死了。theano应该也快了。

avatar
f*s
13
这个我也看了,不支持open gl 4.0,我也不知道这个有
多重要,哪位给科普一下?

到: 】
http://www.newegg.com/Product/Product.aspx?
Item=N82E16814162058&cm_re=gtx_460_768mb-_-
14-162-058-_-Product
http://www.microcenter.com/single_product_r
esults.phtml?product_id=0341977

【在 t*******y 的大作中提到】
: 可以考虑一下这个,便宜一点
: http://www.newegg.com/Product/Product.aspx?Item=N82E16814162058&cm_re=gtx_460_768mb-_-14-162-058-_-Product
: 附近有microcenter的话考虑一下这个
: http://www.microcenter.com/single_product_results.phtml?product_id=0341977
:
: bit

avatar
w*g
14
pytorch目前不适合deploy,而且userbase不大。
做东西卖钱可能还是得tensorflow。
有空我其实宁可看电视剧。实在是生存压力大不学不行。
这种情况下就凸显我picpac的优势了。如果当时用tfrecord,
接pytorch就不方便了。
这两天我用TF基本实现了colorful colorization。
正在着手做neural enhance。有没事干的同学欢迎一起研究。
有些东西自己一个个试实在太慢。

【在 C*****5 的大作中提到】
: 大牛,您终于上了pytorch。我是越用越喜欢。
avatar
C*5
16
大牛,请问怎么一起研究?我也很想跟着大牛一起学习。

【在 w***g 的大作中提到】
: pytorch目前不适合deploy,而且userbase不大。
: 做东西卖钱可能还是得tensorflow。
: 有空我其实宁可看电视剧。实在是生存压力大不学不行。
: 这种情况下就凸显我picpac的优势了。如果当时用tfrecord,
: 接pytorch就不方便了。
: 这两天我用TF基本实现了colorful colorization。
: 正在着手做neural enhance。有没事干的同学欢迎一起研究。
: 有些东西自己一个个试实在太慢。

avatar
w*g
17
就是把你闲着的GPU贡献出来帮我跑程序。
我们用不同的参数/architecture跑,看看结果有啥区别。
顺便学习。机器如果闲着,其实easily几个星期时间就闲过去了。

【在 C*****5 的大作中提到】
: 大牛,请问怎么一起研究?我也很想跟着大牛一起学习。
avatar
N*m
18
coffe死了?coffe2都出来了,还有戏吗?

【在 w***g 的大作中提到】
: 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。
: update:
: 打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。
: 死慢死慢死慢死慢的。据说pytorch速度不错。
: caffe应该是死了。theano应该也快了。

avatar
N*m
19
btw, pytorch是fb在搞,coffe的作者在脸书上班,估计是没戏了

【在 N*****m 的大作中提到】
: coffe死了?coffe2都出来了,还有戏吗?
avatar
w*g
20
没想到caffe2又死灰复燃了,还搞出来个.ai的网站!
在大公司干就是好。要有哪个冤大头支持我花时间好好做做picpac就好了。
安圭拉这地方以后光靠卖.ai域名好了,都不用工作了。我估计马上也得给他们捐钱了。

【在 N*****m 的大作中提到】
: coffe死了?coffe2都出来了,还有戏吗?
avatar
k*u
21
copy的mxnet作者的blog:
对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接
口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主
语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌
入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative
programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提
供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative
programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括
Caffe,theano和刚公布的TensorFlow。
目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将
两种模式无缝的结合起来。在命令式编程上MXNet提供张量运算,而声明式编程中MXNet
支持符号表达式。用户可以自由的混合它们来快速实现自己的想法。例如我们可以用声
明式编程来描述神经网络,并利用系统提供的自动求导来训练模型。另一方便,模型的
迭代训练和更新模型法则中可能涉及大量的控制逻辑,因此我们可以用命令式编程来实
现。同时我们用它来进行方便地调式和与主语言交互数据。

【在 L****8 的大作中提到】
: 有啥比tensorflow theano 牛逼的地方?
avatar
w*g
22
用户其实根本不懂。连我这种专业用户都是既不懂也不care,除非真要用了才会去学。
mxnet的优势在于多语言支持。如果不想用python,mxnet是唯一的选择。
我是真心佩服mxnet这批人的。如果好好market一下,破了python一家独大的局面,
也是造福后代的事情。虽然我知道这好像不可能。
本来还有个lua,现在来个pytorch,lua也用不上了。

【在 k*****u 的大作中提到】
: copy的mxnet作者的blog:
: 对于一个优秀的深度学习系统,或者更广来说优秀的科学计算系统,最重要的是编程接
: 口的设计。他们都采用将一个领域特定语言(domain specific language)嵌入到一个主
: 语言中。例如numpy将矩阵运算嵌入到python中。这类嵌入一般分为两种,其中一种嵌
: 入的较浅,其中每个语句都按原来的意思执行,且通常采用命令式编程(imperative
: programming),其中numpy和Torch就是属于这种。而另一种则用一种深的嵌入方式,提
: 供一整套针对具体应用的迷你语言。这一种通常使用声明式语言(declarative
: programing),既用户只需要声明要做什么,而具体执行则由系统完成。这类系统包括
: Caffe,theano和刚公布的TensorFlow。
: 目前现有的系统大部分都采用上两种编程模式的一种。与它们不同的是,MXNet尝试将

avatar
N*m
23
赶脚mxnet的用户主流也是用py

【在 w***g 的大作中提到】
: 用户其实根本不懂。连我这种专业用户都是既不懂也不care,除非真要用了才会去学。
: mxnet的优势在于多语言支持。如果不想用python,mxnet是唯一的选择。
: 我是真心佩服mxnet这批人的。如果好好market一下,破了python一家独大的局面,
: 也是造福后代的事情。虽然我知道这好像不可能。
: 本来还有个lua,现在来个pytorch,lua也用不上了。

avatar
s*l
24
Caffe2已经fb背书

【在 w***g 的大作中提到】
: 好像用的人少。底下都是cudnn,用tf应该没错。现在鸡毛框架层出不穷好烦。
: update:
: 打算开始学pytorch了。这两天开始train imagenet,发现确实跟小数据不一样。
: 死慢死慢死慢死慢的。据说pytorch速度不错。
: caffe应该是死了。theano应该也快了。

avatar
N*m
25
小贾就在脸书么。脸书同时搞两个啊。

【在 s*****l 的大作中提到】
: Caffe2已经fb背书
avatar
s*l
26
昨天在gtc看见jia了
talk一如既往的火爆
一如既往的chinglish 哈哈

【在 N*****m 的大作中提到】
: 小贾就在脸书么。脸书同时搞两个啊。
avatar
s*l
27
感觉caffe2就是给embeded定制的

【在 N*****m 的大作中提到】
: 小贾就在脸书么。脸书同时搞两个啊。
avatar
N*m
28
牛逼啊,跟老黄在第一排
http://www.gputechconf.com/

【在 s*****l 的大作中提到】
: 昨天在gtc看见jia了
: talk一如既往的火爆
: 一如既往的chinglish 哈哈

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。