Redian新闻
>
RTX 2080 Ti 的深学性能如何?
avatar
RTX 2080 Ti 的深学性能如何?# Programming - 葵花宝典
a*y
1
在工作中确实是不应该存在好人的,这件事情,明明就像是真理一样的存在,可是我却
知道的太晚了,一定要经历过一些痛苦的经历,才能够自己明白过来。
刚开始的时候,还是挺喜欢现在的工作的。可能也是由于自己没有工作经验的原因,因
此一开始的时候,并不知道应该用一种什么样的状态,去投入到全新的工作环境,甚至
是生活环境当中。我是那种比较容易受到别人影响的人,别人的话都会让我的情绪起伏。
经常都是工作中,大家不想干的工作,只要是分配到谁的手里,都会想办法推脱掉,可
是给到我的时候,我却不知道应该怎么拒绝。这样的事情发生过几次之后,工作中的难
事情就都变成我的了。后来我才知道,原来在工作中,真的不要不好意思,你不想干就
说,大不了就辞职。
可是事实上,哪个人的态度足够强硬,总是更加容易成为收益最多的那个,至少不应该
一直傻傻的承受。反正我也想明白了,我是来工作的,又不是来交朋友的,不想干的就
直接拒绝,认为不应该的时候也说出来,大不了就辞职呗。
avatar
x*2
2
不久前,lambdalabs做了测试,在不同模型下,FP32单精度性能 RTX 2080 Ti 比 GTX
1080 Ti高出27%到45%,FP16半精度中性能高出60%到65%。
我记得卫东好像说过他需要用PF64,是不是有这件事?
avatar
w*g
3
我最开始自己实现过一个深学框架,然后为了验证正确性,要把
back-propate出来的导数和直接数值模拟算得的导数对比。
同样的程序,用fp32时两个数值相差经常在1%以上,改用fp64后
基本上就能比较完美地对上了。所以我一直有个印象,就是fp32
算比较深的神经网络时,其实数值精度是不太够的。
并不是说我需要FP64。

GTX

【在 x*****2 的大作中提到】
: 不久前,lambdalabs做了测试,在不同模型下,FP32单精度性能 RTX 2080 Ti 比 GTX
: 1080 Ti高出27%到45%,FP16半精度中性能高出60%到65%。
: 我记得卫东好像说过他需要用PF64,是不是有这件事?

avatar
x*u
4
话说显卡算出来的浮点数从20年前就和理论上的对不上啊

【在 w***g 的大作中提到】
: 我最开始自己实现过一个深学框架,然后为了验证正确性,要把
: back-propate出来的导数和直接数值模拟算得的导数对比。
: 同样的程序,用fp32时两个数值相差经常在1%以上,改用fp64后
: 基本上就能比较完美地对上了。所以我一直有个印象,就是fp32
: 算比较深的神经网络时,其实数值精度是不太够的。
: 并不是说我需要FP64。
:
: GTX

avatar
w*g
5
我那个用cpu跑的。cuda我没好好练过,不会写。

【在 x****u 的大作中提到】
: 话说显卡算出来的浮点数从20年前就和理论上的对不上啊
avatar
x*u
6
当年3D加速卡起步的时候,用硬件渲染的效果就和软件按照公式算出来的不一样,而且
各个显卡都不同。怀疑是人为忽略了某些步骤或者校验以加速。

【在 w***g 的大作中提到】
: 我那个用cpu跑的。cuda我没好好练过,不会写。
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。