请使用NVDA 的GPU 或 Deep Learning 干这行或熟悉这行的说说# Stocka*w2017-05-26 07:051 楼DL/DNN 在2017年有哪些实际应用?谢谢。网上搜索的感觉,大都是在搞学术论文,基本没看到实际应用,除了alphatGo外。这会影响NVDA下个季报。。。
C*52017-05-26 07:052 楼不用功【在 a***w 的大作中提到】: DL/DNN 在2017年有哪些实际应用?谢谢。: 网上搜索的感觉,大都是在搞学术论文,基本没看到实际应用,除了alphatGo外。: 这会影响NVDA下个季报。。。
a*w2017-05-26 07:053 楼在google 与 google news中分别搜索[ "Deep learning" apply],[ "Deep learning" breakthrough]等关键词,得出的结论也请CRH1235行内大牛说说何处应用,谢谢【在 C*****5 的大作中提到】: 不用功
a*m2017-05-26 07:054 楼其实 你这样不能量化的野鸡fa 没有任何意义BTW 搜索 某东西的应用 合适的关键词是 application。 不是什么 applylearning【在 a***w 的大作中提到】: 在google 与 google news中分别搜索[ "Deep learning" apply],[ "Deep learning: " breakthrough]等关键词,得出的结论: 也请CRH1235行内大牛说说何处应用,谢谢
a*w2017-05-26 07:055 楼1,本人在银行做过对大企业如walmart的FA,对财报了如指掌,定量定性分析都有。2. 我实际用的是application ,但是刚才简化apply ,因为知道 google 搜索是AI的,apply 与application applications 是同等对待。deep learning 却要用引号括起来,免得不相干结果。【在 a***m 的大作中提到】: 其实 你这样不能量化的野鸡fa 没有任何意义: BTW 搜索 某东西的应用 合适的关键词是 application。 不是什么 apply: : learning
c*a2017-05-26 07:056 楼敢问哪家银行啊。。。。: 1,本人在银行做过对大企业如walmart的FA,对财报了如指掌,定量定性分析: 都有。: 2. 我实际用的是application ,但是刚才简化apply ,因为知道 google 搜索是AI: 的,apply 与application applications 是同等对待。deep learning 却要用引号括: 起来,免得不相干结果。【在 a***w 的大作中提到】: 1,本人在银行做过对大企业如walmart的FA,对财报了如指掌,定量定性分析: 都有。: 2. 我实际用的是application ,但是刚才简化apply ,因为知道 google 搜索是AI: 的,apply 与application applications 是同等对待。deep learning 却要用引号括: 起来,免得不相干结果。
h*n2017-05-26 07:057 楼对股票价格一个最大的优势,也可以说忽悠就是一定要有触摸不到的概念在里面。如果能触摸到,大家都看的见了,那就没有前途了。比如TSLA,一定要有一个远的,大家看不到的概念在才行。如果都是Model S,就可以破产了。AI必须是那种大家看不到,只能想的阶段才最有魅力。等真正实用了,那就没什么意思了。就像Intel,你的sales再高也没用,因为产品已经被大家看透了,给你个20 倍EPS都算高看你了。但是如果是一个看不到的概念,随便给你100倍,1000倍的EPS都可以的。【在 a***w 的大作中提到】: DL/DNN 在2017年有哪些实际应用?谢谢。: 网上搜索的感觉,大都是在搞学术论文,基本没看到实际应用,除了alphatGo外。: 这会影响NVDA下个季报。。。
C*52017-05-26 07:058 楼GTC2016,2017所有talk的录像在网上都有。GTC偏应用,你可以自己去看看。learning【在 a***w 的大作中提到】: 在google 与 google news中分别搜索[ "Deep learning" apply],[ "Deep learning: " breakthrough]等关键词,得出的结论: 也请CRH1235行内大牛说说何处应用,谢谢
C*52017-05-26 07:0510 楼楼主的意思是搜不到他就不敢买,不敢买下季NVDA再猛涨他就赚不到了【在 m*****n 的大作中提到】: 甚么逻辑啊,你网上搜不到,导致"这会影响NVDA下个季报。。。"
m*n2017-05-26 07:0511 楼LZ提问的技巧蛮好的,你们不回答,后果会很严重。。。【在 C*****5 的大作中提到】: 楼主的意思是搜不到他就不敢买,不敢买下季NVDA再猛涨他就赚不到了
y*u2017-05-26 07:0512 楼为啥没影响前几个季报 单单下个季报 这么牛逼的逻辑【在 a***w 的大作中提到】: DL/DNN 在2017年有哪些实际应用?谢谢。: 网上搜索的感觉,大都是在搞学术论文,基本没看到实际应用,除了alphatGo外。: 这会影响NVDA下个季报。。。
c*v2017-05-26 07:0513 楼十八年前ANN就有很多应用了。但是因为神经网络被打压,整个软计算都不行。所以那时候为了发文章,会把如软计算包装成硬计算,弄很多垃圾数学在里面忽悠。现在神经网络流行,很多不是这块的开始反包装。连微分几何的数学家都摇身一变成AI大牛了。我之前讲过,我十八年前硕士论文就是ANN控制工业系统。it worked.【在 a***w 的大作中提到】: DL/DNN 在2017年有哪些实际应用?谢谢。: 网上搜索的感觉,大都是在搞学术论文,基本没看到实际应用,除了alphatGo外。: 这会影响NVDA下个季报。。。
y*u2017-05-26 07:0514 楼ER前估计121 - 150间震荡 继续紧跟房哥脚步 卖了也不知道买啥好【在 a***w 的大作中提到】: DL/DNN 在2017年有哪些实际应用?谢谢。: 网上搜索的感觉,大都是在搞学术论文,基本没看到实际应用,除了alphatGo外。: 这会影响NVDA下个季报。。。
C*52017-05-26 07:0515 楼当年那个只能叫浅度学习,估计就是个MLP,就现在的DL的发展来看类似print个"HelloWorld"差不多。这个领域真的是爆炸了。【在 c*******v 的大作中提到】: 十八年前ANN就有很多应用了。但是因为神经网络被打压,整个软计算都不行。: 所以那时候为了发文章,会把如软计算包装成硬计算,弄很多垃圾数学在里面忽悠。: 现在神经网络流行,很多不是这块的开始反包装。连微分几何的数学家都摇身一变: 成AI大牛了。: 我之前讲过,我十八年前硕士论文就是ANN控制工业系统。: it worked.
y*u2017-05-26 07:0516 楼跟我当年理解云计算一个样 当时没深入了解 觉得不过就是linux集群 建议上nvdia官网学习学习 有免费课程这次真的是革命性的 由于GPU的性能的提高,允许训练大数据,加上DNN建模上有有了突破 以前根本没法训练多层网络 现在机器识别图片和语言比人还高【在 c*******v 的大作中提到】: 十八年前ANN就有很多应用了。但是因为神经网络被打压,整个软计算都不行。: 所以那时候为了发文章,会把如软计算包装成硬计算,弄很多垃圾数学在里面忽悠。: 现在神经网络流行,很多不是这块的开始反包装。连微分几何的数学家都摇身一变: 成AI大牛了。: 我之前讲过,我十八年前硕士论文就是ANN控制工业系统。: it worked.
g*t2017-05-26 07:0517 楼多层ANN就是DL,按现在的术语。90年美军就开始用ANN学习在飞机损伤条件下之类的不规则情况下的电控了。你找找报告。那不可能是三层网。我当初的硕士论文也不是三层网。我是多层反馈网络。因为是化工过程控制开关阀门,不需要速度快,所以It worked.: 当年那个只能叫浅度学习,估计就是个MLP,就现在的DL的发展来看类似print个"Hello: World"差不多。这个领域真的是爆炸了。【在 C*****5 的大作中提到】: 当年那个只能叫浅度学习,估计就是个MLP,就现在的DL的发展来看类似print个"Hello: World"差不多。这个领域真的是爆炸了。
g*t2017-05-26 07:0518 楼以前不是没办法,是因为程序员数量不够用。有能力的人写个网站几十万到手,搞毛神经网络啊。: 跟我当年理解云计算一个样 当时没深入了解 觉得不过就是linux集群 建议上nvdia官: 网学习学习 有免费课程: 这次真的是革命性的 由于GPU的性能的提高,允许训练大数据,加上DNN建模上有有了: 突破 以前根本没法训练多层网络 现在机器识别图片和语言比人还高【在 y*********u 的大作中提到】: 跟我当年理解云计算一个样 当时没深入了解 觉得不过就是linux集群 建议上nvdia官: 网学习学习 有免费课程: 这次真的是革命性的 由于GPU的性能的提高,允许训练大数据,加上DNN建模上有有了: 突破 以前根本没法训练多层网络 现在机器识别图片和语言比人还高
y*u2017-05-26 07:0519 楼三层backward propagation问题不大 高精度现在都是几十几百层 才需要那些DL新的东西如auto encoder之类【在 g****t 的大作中提到】: 多层ANN就是DL,按现在的术语。: 90年美军就开始用ANN学习在飞机损伤条件下: 之类的不规则情况下的电控了。你找找报告。: 那不可能是三层网。: 我当初的硕士论文也不是三层网。我是多层反馈网络。: 因为是化工过程控制开关阀门,不需要速度快,所以: It worked.: : : 当年那个只能叫浅度学习,估计就是个MLP,就现在的DL的发展来看类似print个: "Hello
y*u2017-05-26 07:0520 楼跟写网站有鸟关系 以前神经网络效果还不如SVM 根本没市场【在 g****t 的大作中提到】: 以前不是没办法,是因为程序员数量不够用。: 有能力的人写个网站几十万到手,搞毛神经网络啊。: : : 跟我当年理解云计算一个样 当时没深入了解 觉得不过就是linux集群 建议上: nvdia官: : 网学习学习 有免费课程: : 这次真的是革命性的 由于GPU的性能的提高,允许训练大数据,加上DNN建模上: 有有了: : 突破 以前根本没法训练多层网络 现在机器识别图片和语言比人还高:
C*52017-05-26 07:0521 楼auto encoder 其实实际应用不多,工业界用的多的貌似多是CNN,RNN衍生出来的模型【在 y*********u 的大作中提到】: 三层backward propagation问题不大 高精度现在都是几十几百层 才需要那些DL新的东: 西如auto encoder之类
g*t2017-05-26 07:0522 楼图像识别是边缘学科,只是市场的冰山一角。不妨你等十年再回帖。: 跟写网站有鸟关系 以前神经网络效果还不如SVM 根本没市场【在 y*********u 的大作中提到】: 跟写网站有鸟关系 以前神经网络效果还不如SVM 根本没市场