avatar
e*u
1
看到一个同胞的房子,楼梯是旋转的。大家觉的是优点还是缺点。如果是缺点,大概要
花多少钱改成普通的楼梯?
avatar
l*y
2
俺不懂什么machinelearning,这程序下棋是不是跟事先学习李师师棋谱有关?
换句话说来个黑箱挑战,让中日韩不同风格段位上至80岁老头下至冲段屁孩随机和阿狗
下,下完了才知道是谁,能不能打懵机器?
avatar
e*u
3


【在 e*****u 的大作中提到】
: 看到一个同胞的房子,楼梯是旋转的。大家觉的是优点还是缺点。如果是缺点,大概要
: 花多少钱改成普通的楼梯?

avatar
d*e
4
估计把所有棋谱都录入,每一步都在一堆定式里选择。棋手对战的话最好要有非常好的
全局观,不让自己的意图被判断出来
avatar
c*o
5
这种装B的很跪
avatar
l*y
6
听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱
来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬
翻毛和小李的狗
avatar
w*2
7
这房子通2楼就这么一个楼梯?非正规吧~~
avatar
i*h
8
你真是给术版丢人

【在 l****y 的大作中提到】
: 听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱
: 来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬
: 翻毛和小李的狗

avatar
M*n
9
说话注意素质呀,哎。

【在 c****o 的大作中提到】
: 这种装B的很跪
avatar
l*e
10
我也是外行,但是据我所知阿发狗没有专门研究李师师的棋谱
阿发狗不是简单地依靠电脑的计算速度来穷举找出最优解,或者存储古今中外所有棋谱
来搜,他的关键是个模拟神经网络,有学习能力,有类似人的正负反馈,所以他玩什么
游戏玩几盘都能比世界最厉害的人玩得好
avatar
L*i
11
偶对这种楼梯上下的时候只觉得腿软。。。
不会是唯一一个楼梯吧,就这样的家具咋搬上去,改成直上直下的占空间太大了吧

【在 e*****u 的大作中提到】

avatar
l*e
12
这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上
炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了
avatar
f*i
13
跳钢管舞专家的楼梯?

【在 e*****u 的大作中提到】

avatar
s*e
14
深蓝只会下象棋,阿法狗稍微改改做什么都可以

【在 l*******e 的大作中提到】
: 这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上
: 炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了

avatar
k*9
15
本来旋转楼梯是豪宅标配。
这种楼梯……我看还是pass吧,看了不舒服还不好用
avatar
g*a
16
neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来
获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个
supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA
alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的
。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov
chain。
avatar
c*o
17
的确,豪宅的楼梯就是要弯来弯去。但是楼主这个房子根本就不像一个豪宅,所以哥才
说装()

【在 k*****9 的大作中提到】
: 本来旋转楼梯是豪宅标配。
: 这种楼梯……我看还是pass吧,看了不舒服还不好用

avatar
y*n
18
这里就你说的最靠谱了

【在 g**a 的大作中提到】
: neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来
: 获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个
: supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA
: alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的
: 。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov
: chain。

avatar
D*r
19
如果还有一个正常楼梯在别处上楼,那么很赞,换上木地板挺好看的
如果是仅有的楼梯,不符合code吧,没法装残疾人升降椅啊
avatar
c*t
20
你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵

【在 y*********n 的大作中提到】
: 这里就你说的最靠谱了
avatar
t*Q
21
消防队楼梯的二合一简化版 —— 楼梯加钢管。

【在 D******r 的大作中提到】
: 如果还有一个正常楼梯在别处上楼,那么很赞,换上木地板挺好看的
: 如果是仅有的楼梯,不符合code吧,没法装残疾人升降椅啊

avatar
y*n
22
你写的那段
连wiki都差的远
我敢肯定
你连wiki都看不懂

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
23
你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不
要扯太远,OK?

net

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
24
那这个是基于什么的?

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
25
他看的连英文版都不是
肯定是汉语版的
估计是那个chinese network那个杂牌科技网站
他描述出来的
也就国内蓝翔技校里的大专生
发的帖子
的水准
lol
至于pooling layer, convolutional layer,
对他都跟登月那么深奥
你问问他啥是bipartite graph和max matching
保证一问一个蒙

【在 g**a 的大作中提到】
: 你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不
: 要扯太远,OK?
:
: net

avatar
g*a
26
大哥,你觉得你说这段话里面,有任何可以被计算机理解的东西吗?我不管你说的
neural network到底是什么样的,你要用它实现,首先需要一个数学模型啊。你到底知
道MM和HMM是什么东西不?

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
27
bbs在线2万人
懂DBNCNN的
最多一只手
所以也不算丢人
属于正常绝大多数
这个内容
对学术背景要求极高
条件很难满足
跟CS coding太不一样
学一门java
打遍天下

【在 i***h 的大作中提到】
: 你真是给术版丢人
avatar
g*a
28
原来你是在扣字眼。那按你的意思,nn的每个节点都要定义一个概率函数?

nn

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
29
不是数学模型
太泛泛了
这里专指Stochastic Modeling
gaea说的也比较general
专指Hidden Markov Models

nn

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
30
你前面讲的HMM的内容
都不是一般的错
而是非常的错
相当的错

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
31
你还是回food版
继续煮饭吧
厨房虽然你也未必能做好
但起码让你头发少白了几根
我是本着对你身体健康的角度
为你着想
以后少看这些距离自己太远的
又追不上的

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
32
好吧,你讲得太泛了。我就问你三个问题:
1. 你说的这些节点分层吗?
2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层
呢?
3. 同一层的节点之间是什么关系?

hmm

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
33
你这样定义的nn不可能有数学解。再等几十年看看能不能有个天才再提出个模型来。

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
34
他没有graph theory的底子
这些问题比如 k-coloring
都和天书一样

【在 g**a 的大作中提到】
: 好吧,你讲得太泛了。我就问你三个问题:
: 1. 你说的这些节点分层吗?
: 2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层
: 呢?
: 3. 同一层的节点之间是什么关系?
:
: hmm

avatar
t*u
35
求求你们不要犯傻讨论了
avatar
c*t
36
等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
以讲一下先

【在 y*********n 的大作中提到】
: 他没有graph theory的底子
: 这些问题比如 k-coloring
: 都和天书一样

avatar
g*a
37
你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可
以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
y*n
38
你总是提文献
好吧
那你回答一下
你最近看的文献
是哪一年的?
就给我年数字即可

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
y*n
39
你只要给我文献的year
我就能断定你
给吧

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
y*n
40
谁吃饱了撑着
背诵一堆和就业市场无关的数学名词啊
你清醒清醒,好吗
gradient descent
heat equation
wave equation
Euler method
Newton method
convex optimization
eigenvalue problem
normal equations
least square
这些都是跟deep learning有直接关系的知识体系
转行学CS coding
只为找工作的人
99.99%是不会知道这些
是什么东东

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
c*t
41
你要知道nn的最初建立是有神经科学/仿生意义的,你觉得这些和hmm的关系是什么?

【在 g**a 的大作中提到】
: 你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可
: 以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?

avatar
c*t
42
好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我
都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么
样的?

【在 y*********n 的大作中提到】
: 谁吃饱了撑着
: 背诵一堆和就业市场无关的数学名词啊
: 你清醒清醒,好吗
: gradient descent
: heat equation
: wave equation
: Euler method
: Newton method
: convex optimization
: eigenvalue problem

avatar
y*n
43
瞧你这点出息
狗屁不懂
还自以为是
基本概念都没见过
上来就指手画脚
这里有我前面提及的部分相关知识背景
http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2
Unsupervised and Transfer Learning
Challenges in Machine Learning, Volume 7
Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie

【在 c****t 的大作中提到】
: 好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我
: 都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么
: 样的?

avatar
c*t
44
赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时
候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续
等你自己说出来nn为什么是基于hmm的

【在 y*********n 的大作中提到】
: 瞧你这点出息
: 狗屁不懂
: 还自以为是
: 基本概念都没见过
: 上来就指手画脚
: 这里有我前面提及的部分相关知识背景
: http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2
: Unsupervised and Transfer Learning
: Challenges in Machine Learning, Volume 7
: Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie

avatar
y*n
45
狗屁审稿
你审的是国内蓝翔大专
VPN到美国网站剽窃来的
翻译都没翻对的
稿子吧
这篇文献的作者是蒙特利尔大学的
Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐
名的
都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校

【在 c****t 的大作中提到】
: 赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时
: 候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续
: 等你自己说出来nn为什么是基于hmm的

avatar
c*t
46
跪了

【在 y*********n 的大作中提到】
: 狗屁审稿
: 你审的是国内蓝翔大专
: VPN到美国网站剽窃来的
: 翻译都没翻对的
: 稿子吧
: 这篇文献的作者是蒙特利尔大学的
: Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐
: 名的
: 都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校

avatar
l*y
47
俺不懂什么machinelearning,这程序下棋是不是跟事先学习李师师棋谱有关?
换句话说来个黑箱挑战,让中日韩不同风格段位上至80岁老头下至冲段屁孩随机和阿狗
下,下完了才知道是谁,能不能打懵机器?
avatar
d*e
48
估计把所有棋谱都录入,每一步都在一堆定式里选择。棋手对战的话最好要有非常好的
全局观,不让自己的意图被判断出来
avatar
l*y
49
听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱
来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬
翻毛和小李的狗
avatar
i*h
50
你真是给术版丢人

【在 l****y 的大作中提到】
: 听过一段datamining课,sb老师纯粹卖弄统计概念,估计这玩意也是根据已有数据棋谱
: 来预测下一步。说到底和国际象棋人机对战有本质区别,这阿发狗是人训练出来的专咬
: 翻毛和小李的狗

avatar
l*e
51
我也是外行,但是据我所知阿发狗没有专门研究李师师的棋谱
阿发狗不是简单地依靠电脑的计算速度来穷举找出最优解,或者存储古今中外所有棋谱
来搜,他的关键是个模拟神经网络,有学习能力,有类似人的正负反馈,所以他玩什么
游戏玩几盘都能比世界最厉害的人玩得好
avatar
l*e
52
这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上
炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了

【在 c****t 的大作中提到】
: 跪了
avatar
s*e
53
深蓝只会下象棋,阿法狗稍微改改做什么都可以

【在 l*******e 的大作中提到】
: 这么说跟以前的深蓝什么的也没啥本质区别,只是电脑计算能力进一步提高,我看网上
: 炒得沸沸扬扬,说的阿发狗多牛逼,尤其“学习能力”这词太吓人了

avatar
g*a
54
neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来
获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个
supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA
alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的
。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov
chain。
avatar
y*n
55
这里就你说的最靠谱了

【在 g**a 的大作中提到】
: neuro network的基础应该是markov chain。棋类这种一步步来的最适合用这种方法来
: 获得最优解。对每一步概率通过learning dataset来进行优化就是学习过程。这个
: supervised learning 具体怎么搞还得看看书。另外一个应用实例是DNA测序。DNA
: alignment过程简直就像是专门为markov chain设计的应用。应该跟穷举没什么关系的
: 。穷举默认每个status独立,并且每种选择的概率一样。这只能算非常初级的markov
: chain。

avatar
c*t
56
你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵

【在 y*********n 的大作中提到】
: 这里就你说的最靠谱了
avatar
y*n
57
你写的那段
连wiki都差的远
我敢肯定
你连wiki都看不懂

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
58
你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不
要扯太远,OK?

net

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
59
那这个是基于什么的?

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
60
他看的连英文版都不是
肯定是汉语版的
估计是那个chinese network那个杂牌科技网站
他描述出来的
也就国内蓝翔技校里的大专生
发的帖子
的水准
lol
至于pooling layer, convolutional layer,
对他都跟登月那么深奥
你问问他啥是bipartite graph和max matching
保证一问一个蒙

【在 g**a 的大作中提到】
: 你说的neural network是什么样的?跟下面这张图不同的地方在哪?我是说原理上,不
: 要扯太远,OK?
:
: net

avatar
g*a
61
大哥,你觉得你说这段话里面,有任何可以被计算机理解的东西吗?我不管你说的
neural network到底是什么样的,你要用它实现,首先需要一个数学模型啊。你到底知
道MM和HMM是什么东西不?

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
62
bbs在线2万人
懂DBNCNN的
最多一只手
所以也不算丢人
属于正常绝大多数
这个内容
对学术背景要求极高
条件很难满足
跟CS coding太不一样
学一门java
打遍天下

【在 i***h 的大作中提到】
: 你真是给术版丢人
avatar
g*a
63
原来你是在扣字眼。那按你的意思,nn的每个节点都要定义一个概率函数?

nn

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
64
不是数学模型
太泛泛了
这里专指Stochastic Modeling
gaea说的也比较general
专指Hidden Markov Models

nn

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
65
你前面讲的HMM的内容
都不是一般的错
而是非常的错
相当的错

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
66
你还是回food版
继续煮饭吧
厨房虽然你也未必能做好
但起码让你头发少白了几根
我是本着对你身体健康的角度
为你着想
以后少看这些距离自己太远的
又追不上的

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
67
好吧,你讲得太泛了。我就问你三个问题:
1. 你说的这些节点分层吗?
2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层
呢?
3. 同一层的节点之间是什么关系?

hmm

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
g*a
68
你这样定义的nn不可能有数学解。再等几十年看看能不能有个天才再提出个模型来。

【在 c****t 的大作中提到】
: 你要真是月光的话,又要被你死敌嘲笑了,"nn的基础是hmm",这个你认为靠铺?呵呵
avatar
y*n
69
他没有graph theory的底子
这些问题比如 k-coloring
都和天书一样

【在 g**a 的大作中提到】
: 好吧,你讲得太泛了。我就问你三个问题:
: 1. 你说的这些节点分层吗?
: 2. 各层之间的节点是什么关系?more specifically, n和n+1层是什么关系?n和n+2层
: 呢?
: 3. 同一层的节点之间是什么关系?
:
: hmm

avatar
t*u
70
求求你们不要犯傻讨论了
avatar
c*t
71
等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
以讲一下先

【在 y*********n 的大作中提到】
: 他没有graph theory的底子
: 这些问题比如 k-coloring
: 都和天书一样

avatar
g*a
72
你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可
以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
y*n
73
你总是提文献
好吧
那你回答一下
你最近看的文献
是哪一年的?
就给我年数字即可

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
y*n
74
你只要给我文献的year
我就能断定你
给吧

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
y*n
75
谁吃饱了撑着
背诵一堆和就业市场无关的数学名词啊
你清醒清醒,好吗
gradient descent
heat equation
wave equation
Euler method
Newton method
convex optimization
eigenvalue problem
normal equations
least square
这些都是跟deep learning有直接关系的知识体系
转行学CS coding
只为找工作的人
99.99%是不会知道这些
是什么东东

【在 c****t 的大作中提到】
: 等你解释nn和hmm的关系,我就算不懂,还是好学的,不要光用名词,我听不懂你也可
: 以讲一下先

avatar
c*t
76
你要知道nn的最初建立是有神经科学/仿生意义的,你觉得这些和hmm的关系是什么?

【在 g**a 的大作中提到】
: 你用一个确定的函数来定义节点关系,那为什么还要分节点呢?这种特殊情况其实也可
: 以归类到MM里面,所以我一直在问你,你到底知道MM的一些基本假设不?

avatar
c*t
77
好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我
都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么
样的?

【在 y*********n 的大作中提到】
: 谁吃饱了撑着
: 背诵一堆和就业市场无关的数学名词啊
: 你清醒清醒,好吗
: gradient descent
: heat equation
: wave equation
: Euler method
: Newton method
: convex optimization
: eigenvalue problem

avatar
y*n
78
瞧你这点出息
狗屁不懂
还自以为是
基本概念都没见过
上来就指手画脚
这里有我前面提及的部分相关知识背景
http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2
Unsupervised and Transfer Learning
Challenges in Machine Learning, Volume 7
Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie

【在 c****t 的大作中提到】
: 好吧,这些名词我不但不懂,见都没见过,呵呵,你满意了,你给解释解释呗,既然我
: 都不懂,你也不用费心了,还是讲讲我说的nn和hmm关系有什么不对,应该是怎么
: 样的?

avatar
c*t
79
赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时
候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续
等你自己说出来nn为什么是基于hmm的

【在 y*********n 的大作中提到】
: 瞧你这点出息
: 狗屁不懂
: 还自以为是
: 基本概念都没见过
: 上来就指手画脚
: 这里有我前面提及的部分相关知识背景
: http://feed.mtome.com/Publications/CiML/CiML-v7-book.pdf#page=2
: Unsupervised and Transfer Learning
: Challenges in Machine Learning, Volume 7
: Isabelle Guyon, Gideon Dror, Vincent Lemaire, Graham Taylor, and Danie

avatar
y*n
80
狗屁审稿
你审的是国内蓝翔大专
VPN到美国网站剽窃来的
翻译都没翻对的
稿子吧
这篇文献的作者是蒙特利尔大学的
Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐
名的
都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校

【在 c****t 的大作中提到】
: 赫赫,确实不太懂狗屁,你还挺实诚的别人说什么你都信,谢谢你的连接,我审稿的时
: 候为了不丢人基本知识还是得背的滚瓜烂熟的,当我前面都说得费话,我去删了,继续
: 等你自己说出来nn为什么是基于hmm的

avatar
c*t
81
跪了

【在 y*********n 的大作中提到】
: 狗屁审稿
: 你审的是国内蓝翔大专
: VPN到美国网站剽窃来的
: 翻译都没翻对的
: 稿子吧
: 这篇文献的作者是蒙特利尔大学的
: Université de Montréal数学系 和哈佛数学系,多伦多数学系,waterloo数学系齐
: 名的
: 都是拿turing的最佳候选学校, 同时还是医学诺贝尔的获奖学校

avatar
a*n
82
嘻嘻,我也第一次听说NN是基于HMM的,长见识了。
我回去就把蓝翔技校的书都烧了
就是不知道Hinton爷爷是喜欢DBN呢还是喜欢CNN
Hinton爷爷搞了几十年的NN,原来是每天CNN的广播听出来的,嘻嘻
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。