w*g
2 楼
用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
s*i
3 楼
是nook touch,不是nook color,后者早就可以玩bird了。
i*e
5 楼
一天到晚打个破猪头,不知道有什么好玩的
f*i
13 楼
这不是没事找罪受吗
不但不羡慕那个展示者,反而觉得此人很2
不但不羡慕那个展示者,反而觉得此人很2
l*s
17 楼
歪个楼,wdong比较下贝叶斯学习和深度学习?
w*g
19 楼
就我的理解,深度学习一般不太追求对问题的建模。
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。
【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。
【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
l*s
20 楼
表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
b*r
22 楼
哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
w*g
26 楼
你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。
.
【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。
.
【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?
l*s
27 楼
明白了,谢谢!
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
g*t
30 楼
这些分布就是因为现存的知识足够,所以用的人多吧。
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。
【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出
s*k
31 楼
LDA不就是研究long tail的工具?
【在 g****t 的大作中提到】
: 这些分布就是因为现存的知识足够,所以用的人多吧。
: 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
: 加一些条件。不好用,那就无路走。
: 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
: 切比雪夫不等式,大数定律...都不一定适用。
: 所以正态分布为基础的经济学理论都不靠谱。
: 市场可能会有tail events。
: 他肯定是正确的。
: 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
: 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
【在 g****t 的大作中提到】
: 这些分布就是因为现存的知识足够,所以用的人多吧。
: 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
: 加一些条件。不好用,那就无路走。
: 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
: 切比雪夫不等式,大数定律...都不一定适用。
: 所以正态分布为基础的经济学理论都不靠谱。
: 市场可能会有tail events。
: 他肯定是正确的。
: 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
: 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
c*e
34 楼
wdong请分析一下amazon go是啥原理?
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .
相关阅读
[bssd]写Java spring CURD坏脑子grpc-web 这个能一统江湖么?golang还有很长的路需要走,需要5年到10年吧Androidx系统采集播放声音的任务写程序越来越难.net C# 有没有类似 go goroutine 的 库 或者框架 ??感觉Win10对中文的支持严重变差了啊深学的学习曲线人的记忆真的很有意思请教个问题看看这个怎么做AI的新应用,也是最可能的应用[bssd]ML/AI 的关键请推荐 web scraper 软件或工具FB vs Soros这里还真是人工智能的试验场~~抓住了问题的本质,才能知道如何讨论问题渣滓程序员你们有没想过。Java是不是可能很快的进行开发。魏老师的产品不适用