avatar
最近deep learning那么火# DataSciences - 数据科学
l*y
1
大家觉得搞这个方向怎么样?似乎大家炒得火热,但真正有能力搞这个的公司确实也不
多。
avatar
m*a
2
应该说
真正 没 有能力搞这个的公司确实也不多

【在 l******y 的大作中提到】
: 大家觉得搞这个方向怎么样?似乎大家炒得火热,但真正有能力搞这个的公司确实也不
: 多。

avatar
l*y
3
莫看懂...
您的意思是:
真正没,有能力搞这个的公司确实也不多?

【在 m******a 的大作中提到】
: 应该说
: 真正 没 有能力搞这个的公司确实也不多

avatar
m*a
4
真正没能力搞这个的公司确实也不多

【在 l******y 的大作中提到】
: 莫看懂...
: 您的意思是:
: 真正没,有能力搞这个的公司确实也不多?

avatar
l*y
5
为何?看报道,似乎这个需要比较强大的硬件和数据支持吧?!现在可能用GPU运算代
替CPU运算以后,成本下降不少,但这个东西似乎还是高大上玩的东西啊。

【在 m******a 的大作中提到】
: 真正没能力搞这个的公司确实也不多
avatar
m*a
6
你说的都是软,硬件方面的实现
但算法上要说有多大的创新,没看出来
也可能是本人水平太低,或花时间不够,没悟出来

【在 l******y 的大作中提到】
: 为何?看报道,似乎这个需要比较强大的硬件和数据支持吧?!现在可能用GPU运算代
: 替CPU运算以后,成本下降不少,但这个东西似乎还是高大上玩的东西啊。

avatar
l*y
7
我对这个完全不懂,但感觉上做deep learning的就是在一个大的算法框架下,不停得
小调小弄,最后希望调出个好结果来吧?!这个东西似乎在理论上没办法得出一些比较
concrete的结论,全靠手调、经验和尝试。

【在 m******a 的大作中提到】
: 你说的都是软,硬件方面的实现
: 但算法上要说有多大的创新,没看出来
: 也可能是本人水平太低,或花时间不够,没悟出来

avatar
g*o
8
you got it
所以码农经常故意或是无意地用过拟合去忽悠老板→_→

【在 l******y 的大作中提到】
: 我对这个完全不懂,但感觉上做deep learning的就是在一个大的算法框架下,不停得
: 小调小弄,最后希望调出个好结果来吧?!这个东西似乎在理论上没办法得出一些比较
: concrete的结论,全靠手调、经验和尝试。

avatar
l*y
9
这东西似乎被媒体报道得很神。我感觉似乎效果是还不错,至少大多数情况做个语音识
别什么的,都比传统方法强。但究竟这个潜力有多大?一种hypothesis是如果搭建的神
经网络只要足够复杂,给的数据足够多,应该效果会越来越好。感觉很多人都相信以后
AI就靠这个了,我表示并不convinced啊。

【在 g*****o 的大作中提到】
: you got it
: 所以码农经常故意或是无意地用过拟合去忽悠老板→_→

avatar
g*o
10
媒体放大了而已,计算机上的神经网络,本身就是简化模型,人脑的神经元比这复杂,
也比这多多了
其实主要是以前太落后,电脑不够快,所以现在的结果很惊喜而已。而且这东西,也就
是用在模式识别方向,很多领域也用不上。

【在 l******y 的大作中提到】
: 这东西似乎被媒体报道得很神。我感觉似乎效果是还不错,至少大多数情况做个语音识
: 别什么的,都比传统方法强。但究竟这个潜力有多大?一种hypothesis是如果搭建的神
: 经网络只要足够复杂,给的数据足够多,应该效果会越来越好。感觉很多人都相信以后
: AI就靠这个了,我表示并不convinced啊。

avatar
l*m
11
我也好奇,就刚参加一个kaggle比赛学习一下,dl 在 image classification 还是很
强大。 不过 GPU耗电量的大,我每天至少要花2刀电费

【在 l******y 的大作中提到】
: 大家觉得搞这个方向怎么样?似乎大家炒得火热,但真正有能力搞这个的公司确实也不
: 多。

avatar
m*a
12
其实, 数据量足够大的情况下,不需要任何AI
直接查表就行了
因为所有的情况都出现过了

【在 l******y 的大作中提到】
: 这东西似乎被媒体报道得很神。我感觉似乎效果是还不错,至少大多数情况做个语音识
: 别什么的,都比传统方法强。但究竟这个潜力有多大?一种hypothesis是如果搭建的神
: 经网络只要足够复杂,给的数据足够多,应该效果会越来越好。感觉很多人都相信以后
: AI就靠这个了,我表示并不convinced啊。

avatar
l*y
13
这个...理论上可以这么说。

【在 m******a 的大作中提到】
: 其实, 数据量足够大的情况下,不需要任何AI
: 直接查表就行了
: 因为所有的情况都出现过了

avatar
l*y
14
现在感觉搞deep learning几个牛人基本上全搞到几个大公司去做了。其他公司(除了
个别做这个的startup以外)有玩这个的吗?

【在 l*******m 的大作中提到】
: 我也好奇,就刚参加一个kaggle比赛学习一下,dl 在 image classification 还是很
: 强大。 不过 GPU耗电量的大,我每天至少要花2刀电费

avatar
H*E
15

请问您用的是什么构造的机器呢?

【在 l*******m 的大作中提到】
: 我也好奇,就刚参加一个kaggle比赛学习一下,dl 在 image classification 还是很
: 强大。 不过 GPU耗电量的大,我每天至少要花2刀电费

avatar
l*m
16
有不少,尤其和图像和声音相关的。当然如果把word2vec也算dl, 那又一大巴了。

【在 l******y 的大作中提到】
: 现在感觉搞deep learning几个牛人基本上全搞到几个大公司去做了。其他公司(除了
: 个别做这个的startup以外)有玩这个的吗?

avatar
l*m
17
自己的机器 gpu 是gtx 980

【在 H****E 的大作中提到】
:
: 请问您用的是什么构造的机器呢?

avatar
l*y
18
原来您是行业内的大牛。您搞这个方向的,对这个行业的前景都看不清楚吗?

【在 l*******m 的大作中提到】
: 自己的机器 gpu 是gtx 980
avatar
l*m
19
我不是做这个的,刚学。 不过觉得还是有搞头的

【在 l******y 的大作中提到】
: 原来您是行业内的大牛。您搞这个方向的,对这个行业的前景都看不清楚吗?
avatar
l*y
20
搞这个主要需要啥技能?是不是更侧重精通硬软件,然后写大量的代码去实现算法?算
法本身理论性强吗?

【在 l*******m 的大作中提到】
: 我不是做这个的,刚学。 不过觉得还是有搞头的
avatar
l*m
21
做dl的吃香的原因就是没理论,经验比较重要。 都不全局收敛,就是经验和不断尝试
。 估计从c++一定要会

【在 l******y 的大作中提到】
: 搞这个主要需要啥技能?是不是更侧重精通硬软件,然后写大量的代码去实现算法?算
: 法本身理论性强吗?

avatar
l*y
22
那这搞不搞得出来岂不是运气成分也不少?有无数个局部最优的存在,谁知道这神经网
络最后能收敛成什么啊?!

【在 l*******m 的大作中提到】
: 做dl的吃香的原因就是没理论,经验比较重要。 都不全局收敛,就是经验和不断尝试
: 。 估计从c++一定要会

avatar
T*u
23
请相信一个科学家的直觉,工程经验是理论不能替代的,hoho :)

【在 l******y 的大作中提到】
: 那这搞不搞得出来岂不是运气成分也不少?有无数个局部最优的存在,谁知道这神经网
: 络最后能收敛成什么啊?!

avatar
l*y
24
恩,感觉machine learning在实际中大多是跟着感觉走。工程上需要解决的问题似乎比
理论上的问题更重要。

【在 T*****u 的大作中提到】
: 请相信一个科学家的直觉,工程经验是理论不能替代的,hoho :)
avatar
T*u
25
不,禅师的意思是能说会瞎bb的能力比那些理论更重要

【在 l******y 的大作中提到】
: 恩,感觉machine learning在实际中大多是跟着感觉走。工程上需要解决的问题似乎比
: 理论上的问题更重要。

avatar
l*y
26
那应该推荐搞销售的学这个...

【在 T*****u 的大作中提到】
: 不,禅师的意思是能说会瞎bb的能力比那些理论更重要
avatar
l*m
27
所以那3个去工业界的dl巨头都拿到了10m以上的package

【在 l******y 的大作中提到】
: 那这搞不搞得出来岂不是运气成分也不少?有无数个局部最优的存在,谁知道这神经网
: 络最后能收敛成什么啊?!

avatar
l*y
28
那看来有机会去工业界搞这个还是不错的啊

【在 l*******m 的大作中提到】
: 所以那3个去工业界的dl巨头都拿到了10m以上的package
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。