s*x
2 楼
是因为海外IP的关系吗?改DNS可以破?
谢谢。
谢谢。
t*y
4 楼
搜狐没得看,没办法
r*j
10 楼
我试了改dns,好像还是不行,难道是我改错了?
谁帮忙再一发次改的DNS吧
谁帮忙再一发次改的DNS吧
j*t
11 楼
本质是一个复杂的神经网络。
稍微具体点就是用很多层autoencoder或者restricted boltzmann machine叠起来做
feature learning,或许最后再加上一层neurons做supervised learning。
稍微具体点就是用很多层autoencoder或者restricted boltzmann machine叠起来做
feature learning,或许最后再加上一层neurons做supervised learning。
b*e
18 楼
小声问一句,我之前改了dns,跟楼上说的那样,看到是都能看了,点播也没什么大问
题。不过那些本身没有ip限制的,尤其是直播的,比如泰捷里头的cctv13频道,就会变
慢,总在缓冲。你们有这种现象么?
现在我再盒子上安了个ub翻墙,之前跟版上看到有人说的,速度倒是不错,不知道是啥
原理,难道是他们自己开了个dns之类的服务器/口??就跟unblock youku那样?
题。不过那些本身没有ip限制的,尤其是直播的,比如泰捷里头的cctv13频道,就会变
慢,总在缓冲。你们有这种现象么?
现在我再盒子上安了个ub翻墙,之前跟版上看到有人说的,速度倒是不错,不知道是啥
原理,难道是他们自己开了个dns之类的服务器/口??就跟unblock youku那样?
l*e
25 楼
thanks for this, finally see some reasonable post, hehe
btw, frankly speaking, most ppl here
(1) do not understand GMM & HMM (details, why, etc)
(2) do not understand the differences between NN and DL
(3) actually know nothing about DL, hehe
so ...
【在 r*****n 的大作中提到】
: not replacing hmm, instead replacing gmm to work with hmm. Also it is not
: simply adding more layers, there are several algorithms to make the deep
: layer more trainable, e.g., rbm, hession, auto-encoder, etc.
btw, frankly speaking, most ppl here
(1) do not understand GMM & HMM (details, why, etc)
(2) do not understand the differences between NN and DL
(3) actually know nothing about DL, hehe
so ...
【在 r*****n 的大作中提到】
: not replacing hmm, instead replacing gmm to work with hmm. Also it is not
: simply adding more layers, there are several algorithms to make the deep
: layer more trainable, e.g., rbm, hession, auto-encoder, etc.
p*3
27 楼
尼玛,这个版上大多是码工,就只会做几道题
你要是问的深了,都不懂
【在 l**********e 的大作中提到】
: thanks for this, finally see some reasonable post, hehe
: btw, frankly speaking, most ppl here
: (1) do not understand GMM & HMM (details, why, etc)
: (2) do not understand the differences between NN and DL
: (3) actually know nothing about DL, hehe
: so ...
你要是问的深了,都不懂
【在 l**********e 的大作中提到】
: thanks for this, finally see some reasonable post, hehe
: btw, frankly speaking, most ppl here
: (1) do not understand GMM & HMM (details, why, etc)
: (2) do not understand the differences between NN and DL
: (3) actually know nothing about DL, hehe
: so ...
X*2
32 楼
别整天一副别人都是傻子就你专家的样子。
你在这个话题上如果比别人懂得多的话,把你的深刻理解
写出来让大家学习学习,同时也可以让有识之士鉴别一下
你到底懂多少。
【在 l**********e 的大作中提到】
: thanks for this, finally see some reasonable post, hehe
: btw, frankly speaking, most ppl here
: (1) do not understand GMM & HMM (details, why, etc)
: (2) do not understand the differences between NN and DL
: (3) actually know nothing about DL, hehe
: so ...
你在这个话题上如果比别人懂得多的话,把你的深刻理解
写出来让大家学习学习,同时也可以让有识之士鉴别一下
你到底懂多少。
【在 l**********e 的大作中提到】
: thanks for this, finally see some reasonable post, hehe
: btw, frankly speaking, most ppl here
: (1) do not understand GMM & HMM (details, why, etc)
: (2) do not understand the differences between NN and DL
: (3) actually know nothing about DL, hehe
: so ...
r*4
33 楼
Recently, there is an image classification competition in Kaggle.
http://www.kaggle.com/c/dogs-vs-cats/forums/t/6845/example-use-
People using deep learning technique can easily reach 95%+ accuracy for dog
vs. cat classification.
http://www.kaggle.com/c/dogs-vs-cats/forums/t/6845/example-use-
People using deep learning technique can easily reach 95%+ accuracy for dog
vs. cat classification.
r*g
34 楼
做过一点,属于二五眼。随便说说:
1. ANN这个玩意,一段时间就会火一次,因为硬件进步,以前不能算的,现在能算了。
DNN就是如此,接GPU的东风。
2. ANN这个玩意,拿来做classifier怎么样?不怎么样。为啥?因为overfit,层数多
了,可以拟合任何函数,没有regularization,没有推广性。
3. 为啥DNN火了?因为大家不用DNN做classifier了,开始拿他做feature extractor,
结果一用就灵,DNN可以把很难classify的空间投影到容易classify的空间,然后LR,
SVM随便上吧,用啥啥灵,解救了多少白发Ph.D。
4. DNN以后会怎么样?会成为标准的feature engineering方法,classifier呢,该干
嘛还是干嘛。
另外,说Speech recognition DNN取代HMM,的确是没有理解ASR。在声学模型里,比较
成功的DNN取代的是GMM,而HMM的结构没有变。在语言模型上,成功的是Minkov的RNN,
虽然可以支持无限长的历史,但是也无法完全取代ngram,一般放到一起用。
1. ANN这个玩意,一段时间就会火一次,因为硬件进步,以前不能算的,现在能算了。
DNN就是如此,接GPU的东风。
2. ANN这个玩意,拿来做classifier怎么样?不怎么样。为啥?因为overfit,层数多
了,可以拟合任何函数,没有regularization,没有推广性。
3. 为啥DNN火了?因为大家不用DNN做classifier了,开始拿他做feature extractor,
结果一用就灵,DNN可以把很难classify的空间投影到容易classify的空间,然后LR,
SVM随便上吧,用啥啥灵,解救了多少白发Ph.D。
4. DNN以后会怎么样?会成为标准的feature engineering方法,classifier呢,该干
嘛还是干嘛。
另外,说Speech recognition DNN取代HMM,的确是没有理解ASR。在声学模型里,比较
成功的DNN取代的是GMM,而HMM的结构没有变。在语言模型上,成功的是Minkov的RNN,
虽然可以支持无限长的历史,但是也无法完全取代ngram,一般放到一起用。
相关阅读
Apple is too greedy. Only makes $200 cost phone连接蓝牙时Google Music自动启动iPhone 5 网上 pre-order 几点开始呀?可怜的panonokia还是有希望的新地图实在是不怎么样AMAZON上ATT只有3G和5G的data国内苹果爱好者对IP5的看法 (转载)安卓上有类似Siri的应用吗?都是8针接口大家都等入诺基亚920的十大理由买手机和泡妞是一样的 (苹果的附件内存太贵了)IP5关注还挺大的,隔壁果园的游园人数今天创纪录了有人用过data card吗?weiphone的果粉编辑:Touch的挂绳绝对是亮点诺记长出一口气NOKIA股票涨6%,不解释zt 创新困境终结iPhone神话:苹果褪去光环 (转载)请问nexus 7可以用耳麦使用skype吗?说真的,见过奸商,没见过apple这样的 (转载)