w*g
2 楼
用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
s*i
3 楼
是nook touch,不是nook color,后者早就可以玩bird了。
i*e
5 楼
一天到晚打个破猪头,不知道有什么好玩的
f*i
13 楼
这不是没事找罪受吗
不但不羡慕那个展示者,反而觉得此人很2
不但不羡慕那个展示者,反而觉得此人很2
l*s
17 楼
歪个楼,wdong比较下贝叶斯学习和深度学习?
w*g
19 楼
就我的理解,深度学习一般不太追求对问题的建模。
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。
【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。
【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
l*s
20 楼
表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
b*r
22 楼
哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
w*g
26 楼
你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。
.
【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。
.
【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
l*s
27 楼
明白了,谢谢!
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
g*t
30 楼
这些分布就是因为现存的知识足够,所以用的人多吧。
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
s*k
31 楼
LDA不就是研究long tail的工具?
【在 g****t 的大作中提到】
: 这些分布就是因为现存的知识足够,所以用的人多吧。
: 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
: 加一些条件。不好用,那就无路走。
: 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
: 切比雪夫不等式,大数定律...都不一定适用。
: 所以正态分布为基础的经济学理论都不靠谱。
: 市场可能会有tail events。
: 他肯定是正确的。
: 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
: 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
【在 g****t 的大作中提到】
: 这些分布就是因为现存的知识足够,所以用的人多吧。
: 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
: 加一些条件。不好用,那就无路走。
: 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
: 切比雪夫不等式,大数定律...都不一定适用。
: 所以正态分布为基础的经济学理论都不靠谱。
: 市场可能会有tail events。
: 他肯定是正确的。
: 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
: 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
c*e
34 楼
wdong请分析一下amazon go是啥原理?
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
相关阅读
OCR software to capture text on windowsgo is ugly请教 网上挂号Compiler如何设计一个支持 survey or questionnaire 的数据结构?好好多挣点儿钱才是正途mobile行业从上到下Java Play Framework 和 Spring 比较一下?modular pattern已经在前端很普及了Dart有前途吗?!Go adopts JavaScript’s idea of semicolon insertion为什么Go要重新定义concurrency?C*降低了big data的门槛了JavaScript 问题继续求教(50伪币求答案..)Jekyll很NB吗[sad] ruby on rails 工作趋势,ruby on rails job trend....tdd for Clojure project?为什么Python巨慢无比?各位所在公司的code review烦人不?感觉Erlang不错,有必要学习一下吗?