avatar
有没有玩CUDA的?# Programming - 葵花宝典
c*l
1
由於工作原因要離開LA,不想讓家裏的保姆阿姨就此失業,所以上來推薦推薦。
阿姨來美國多年,有合法工作身份,愛乾淨講中文(國語粵語),手腳勤快,會做可口
飯菜,會協助帶小孩。目前她在我傢工作四天半,留宿。有興趣的朋友可聯係我
c*****[email protected]
avatar
k*f
2
看了一下手册,感觉就是拼处理器个数的
按照单个指令速度,比intel的cpu差多了
cuda里面说,一个加法用4个周期,乘法要多一些,除法就更多了
那些峰值速度,哪些程序能接近呢??
avatar
w*g
3
CUDA这东西最大的问题就是memory bandwidth. GPU跟main memory之间的带宽是一个瓶
颈. 对于那些用迭代法解方程之类的问题, 如果所有的数据都能放进GPU, 那自然很好
, 但是对大规模数据集其实GPU帮助并不大. 还有就是GPU的散热问题是很严重的, 这也
是GPGPU目前还不能被应用在服务器领域的一个原因.
CUDA目前发展还很不成熟, 编个正确的程序不难, 但是要手工优化内存地址的依赖关系
还是很难的.

【在 k****f 的大作中提到】
: 看了一下手册,感觉就是拼处理器个数的
: 按照单个指令速度,比intel的cpu差多了
: cuda里面说,一个加法用4个周期,乘法要多一些,除法就更多了
: 那些峰值速度,哪些程序能接近呢??

avatar
r*r
4
用 Tesla, 内存还是不小的. 一块C1060 就有4GB
avatar
k*f
5
tesla太变态了,那么大内存的。
不过下一代GT300马上要出来的,据说有480个核心,速度应该在2G左右
算下来,有1T的速度了

【在 r*********r 的大作中提到】
: 用 Tesla, 内存还是不小的. 一块C1060 就有4GB
avatar
r*r
6
图形卡的供电散热确实有问题, 虽然峰值很高, 但是不能持续.
如果做 server side 计算, 还是要用 tesla.
现在做 machine learning, data mining 的, cuda 很热门.
跟 cluster 比起来, 感觉编程还是要简单一点.
avatar
p*f
7
不用学了,DUDA一定会被Larrabee淘汰。

【在 k****f 的大作中提到】
: 看了一下手册,感觉就是拼处理器个数的
: 按照单个指令速度,比intel的cpu差多了
: cuda里面说,一个加法用4个周期,乘法要多一些,除法就更多了
: 那些峰值速度,哪些程序能接近呢??

avatar
r*y
8
wait openCL
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。