avatar
w*g
2
用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
avatar
s*i
3
是nook touch,不是nook color,后者早就可以玩bird了。
avatar
a9
4
我用了一阵子docker,感觉跟脱裤子放屁有一拼

【在 w***g 的大作中提到】
: 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
avatar
i*e
5
一天到晚打个破猪头,不知道有什么好玩的
avatar
N*m
6
那是image写得不好

【在 w***g 的大作中提到】
: 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
avatar
p*w
7
嗯,我玩了3分钟,算是摸过这个游戏了,然后就不完了

【在 i*****e 的大作中提到】
: 一天到晚打个破猪头,不知道有什么好玩的
avatar
w*g
8
是。不过都docker了,里面还建非root帐号, 那就真是脱裤子放屁了。

【在 N*****m 的大作中提到】
: 那是image写得不好
avatar
i*d
9
倒,这也叫能玩?!

【在 T****n 的大作中提到】
: 屏幕还是比较杯具
avatar
N*m
10
一般不用,但是有这种往主机上写的应用还是应该建一个

【在 w***g 的大作中提到】
: 是。不过都docker了,里面还建非root帐号, 那就真是脱裤子放屁了。
avatar
T*n
11
恩,当然不会是color,打字都习惯了

【在 s********i 的大作中提到】
: 是nook touch,不是nook color,后者早就可以玩bird了。
avatar
w*g
12
docker这东西绝对是security hazard。基本上能run docker就相当于有root权限了。

【在 N*****m 的大作中提到】
: 一般不用,但是有这种往主机上写的应用还是应该建一个
avatar
f*i
13
这不是没事找罪受吗
不但不羡慕那个展示者,反而觉得此人很2
avatar
N*m
14
是的,所以rkt越来越流行

【在 w***g 的大作中提到】
: docker这东西绝对是security hazard。基本上能run docker就相当于有root权限了。
avatar
d*r
15
那 coreos rocket VS docker 有戏?

【在 N*****m 的大作中提到】
: 是的,所以rkt越来越流行
avatar
c*n
16
这玩意儿可以上production了不
那个open image format稳定了没 还是暂时先用docker image?

【在 N*****m 的大作中提到】
: 是的,所以rkt越来越流行
avatar
l*s
17
歪个楼,wdong比较下贝叶斯学习和深度学习?
avatar
c*e
18
一个是传统的 ml, 一个是 nn, 有啥好比较的?

【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
avatar
w*g
19
就我的理解,深度学习一般不太追求对问题的建模。
贝叶斯学习则比较注重对问题建模。贝叶斯方法和
函数式编程在有一点上非常像,就是极度追求
理论的完美性,当和现实世界的不完美性产生
冲突时,会把不完美的那部分排除在理论之外。
比如Haskel用IO monad包装整个现实世界,从而
实现形式上的纯函数式。贝叶斯方法则严重依赖
prior probability。至于prior probability
怎么选则不予讨论。而且prior distribution
的形式完全是由数学上的和谐性决定的,说不出
什么物理依据。比如multinomial分布的prior
是dirichilet分布,完全是由数学形式上的
可行性决定的,没啥道理可讲。因为有这些理论
上优美性的条条框框制约,所以这两个东西在
实战上总是输人一截成不了主流。这次神经网络
兴起之前最流行的graphical model就是贝叶斯
方法,图像分类的实战上一直干不过SVM。
本来这两个是独立的概念没法比,但因为都在
图像分类上有应用,所以勉为其难从效果上
比一下。希望专家路过指正。

【在 l*********s 的大作中提到】
: 歪个楼,wdong比较下贝叶斯学习和深度学习?
avatar
l*s
20
表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?

【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出

avatar
l*s
21
对我们来说,两个都要学吗?还是nn可以取代ml,学一个就行了?

【在 c*****e 的大作中提到】
: 一个是传统的 ml, 一个是 nn, 有啥好比较的?
avatar
b*r
22
哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
avatar
N*m
23
狗也在推,k8s现在可支持rkt
docker那帮人不想让别人抢饭碗,所以其他人都另起炉灶

【在 d*******r 的大作中提到】
: 那 coreos rocket VS docker 有戏?
avatar
l*s
24
好吧 :-), 这流行变化的真快

【在 b*******r 的大作中提到】
: 哈哈,我觉得wdong和littlebirds说的都很对。现在大环境应该是无闹入nn吧
avatar
l*m
25
现在用DL做贝叶斯十分流行,只是老中概率教育不好,基本上是欧洲人做。
基本上就是两个DL networks左右互搏,避免了MCMC或是VI

.

【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?

avatar
w*g
26
你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
花在deep learning之前(图片数据库)和deep learning之后
(post processing, 搭服务, 做demo)上面。至于tensorflow/
caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
也破了。对于我来说,deep learning框架就是个black box plug-in。
等人家好的model release出来,管他是tensorflow, mxnet还是torch
我直接一套就行。

.

【在 l*********s 的大作中提到】
: 表面上神经网络非常通用,但是我感觉里面的机关比贝叶斯方法只多不少,先验分布的
: 选择是很无厘头,但是, 深度学习你要挑网络拓扑结构吧,你要挑损失函数,激活函
: 数,学习速度,正规化等等等等,只是别人都试错好了告诉你这种问题就用这个模型.
: 有不少直观的解释,但基本事后诸葛亮。这和生物研究的现状做很像,不是吗?

avatar
l*s
27
明白了,谢谢!

【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .

avatar
l*s
28
统计这行基本是中国人为主,烙印很少,和IT完全相反。

【在 l*******m 的大作中提到】
: 现在用DL做贝叶斯十分流行,只是老中概率教育不好,基本上是欧洲人做。
: 基本上就是两个DL networks左右互搏,避免了MCMC或是VI
:
: .

avatar
l*m
29
统计和概率是两回事

【在 l*********s 的大作中提到】
: 统计这行基本是中国人为主,烙印很少,和IT完全相反。
avatar
g*t
30
这些分布就是因为现存的知识足够,所以用的人多吧。
跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
加一些条件。不好用,那就无路走。
例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
切比雪夫不等式,大数定律...都不一定适用。
所以正态分布为基础的经济学理论都不靠谱。
市场可能会有tail events。
他肯定是正确的。
但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,
可能从原理上来讲是更正确的道路。

【在 w***g 的大作中提到】
: 就我的理解,深度学习一般不太追求对问题的建模。
: 贝叶斯学习则比较注重对问题建模。贝叶斯方法和
: 函数式编程在有一点上非常像,就是极度追求
: 理论的完美性,当和现实世界的不完美性产生
: 冲突时,会把不完美的那部分排除在理论之外。
: 比如Haskel用IO monad包装整个现实世界,从而
: 实现形式上的纯函数式。贝叶斯方法则严重依赖
: prior probability。至于prior probability
: 怎么选则不予讨论。而且prior distribution
: 的形式完全是由数学上的和谐性决定的,说不出

avatar
s*k
31
LDA不就是研究long tail的工具?

【在 g****t 的大作中提到】
: 这些分布就是因为现存的知识足够,所以用的人多吧。
: 跟软件blackbox类似。好用比正确更重要。好用的话,出问题就修一修,
: 加一些条件。不好用,那就无路走。
: 例如曼德勃罗60年代说股市的variance和更高阶矩不一定存在,
: 切比雪夫不等式,大数定律...都不一定适用。
: 所以正态分布为基础的经济学理论都不靠谱。
: 市场可能会有tail events。
: 他肯定是正确的。
: 但是现有的财务系统,从券商软件到交易系统,据我所知model主要还是从正态分布出
: 发进行修正。而不是往更难的数学那里走。尽管研究variance无穷大的分布,

avatar
T*e
32
你们平时用Docker干什么?

【在 w***g 的大作中提到】
: 用-v加载目录,留下一堆root:root的文件。现在的软件怎么都这么不负责任。
avatar
w*g
33
我用docker部署服务,还有编译环境

【在 T*******e 的大作中提到】
: 你们平时用Docker干什么?
avatar
c*e
34
wdong请分析一下amazon go是啥原理?

【在 w***g 的大作中提到】
: 你说的这些都是问题。但向我们打酱油的哪有时间和精力去研究这种东西,
: 直接拿人家的model一套就能出东西,那才是王道。至今我所有的精力都
: 花在deep learning之前(图片数据库)和deep learning之后
: (post processing, 搭服务, 做demo)上面。至于tensorflow/
: caffe在干嘛,对我来说都是black box。我最近把lua/torch的整合问题
: 也破了。对于我来说,deep learning框架就是个black box plug-in。
: 等人家好的model release出来,管他是tensorflow, mxnet还是torch
: 我直接一套就行。
:
: .

avatar
w*g
35
这个我没啥了解,分析不了。

【在 c*********e 的大作中提到】
: wdong请分析一下amazon go是啥原理?
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。