avatar
跪求K99的package# Biology - 生物学
i*r
1
短了点,有点徐公子味道,新创的修仙世界。
小说名称 《道门法则》
小说作者 八宝饭
小说类型 穿越仙侠
该书状态 连载
推荐人ID ...
引用/阅读网址
http://www.qidian.com/Book/3333529.aspx
内容简介
三十六天无极,三千世界鸿蒙!
大明,我来了!
道门,我来了!
符诏,我来了!
在统治世俗的道门中一步步迈向权力的高峰,向着飞升天界的目标而去!
avatar
S*e
2
自学些东西,最好向大师请教--几秒可能解决问题。
试了http://machinelearningmastery.com/multi-class-classification-tutorial-keras-deep-learning-library/
在最后加了
model = baseline_model()
model.fit(X, dummy_y, nb_epoch=200, batch_size=5, verbose=1)
pre = model.predict(X)
print(pre)
这个预测的结果是nx3矩阵,是不是那3个数相当于“概率”?怎样判断这一行预测的对?
譬如: [ 9.85160708e-01 1.30239958e-02 1.72271675e-09] 非常接近
【1,0,0】。这可以说就是这一类。
可以下这些我就不知怎么解释了, 大牛给小白指点指点?(又想了一想: 是不是和【
1,0,0】,【0,1,0】, 【0,0,1】中最近的一个,就是那一类?)
6.46205149e-13 4.29476095e-05 2.59178039e-03]
[ 1.10887081e-11 6.37081903e-05 5.10335725e-04]
[ 4.52546334e-11 1.55677757e-04 2.39358633e-03]
[ 4.44239995e-13 3.45774897e-05 1.84414478e-03]
[ 3.24687027e-13 3.47296045e-05 2.60079931e-03]
[ 5.53128550e-12 6.55830445e-05 1.15823851e-03]
[ 5.70672884e-11 1.43745216e-04 1.42968143e-03]
[ 3.64973642e-11 9.18867518e-05 5.07714751e-04]
[ 4.24494901e-12 6.25177563e-05 1.31020322e-03]
[ 1.62505717e-10 1.51019180e-04 5.75214217e-04]
avatar
b*8
3
老板建议申请K99,research plan倒是比较清晰,但是其它的不知何从准备着手.跪求高
人的application package or check list.
另外k99和R00的内容是不是得有一定的相关性?
谢谢!!!
avatar
g*n
4
前面有人推过了,有点幽默
avatar
e*o
5
最大可能的那个相当于1,其余0
argmax 是用来干这个的
avatar
S*e
7
好,谢谢。 Argmax helps.
avatar
S*e
8
在这儿收益良多,再问问, 关于model, 上面例子用‘relu' for input layer, '
sigmoid' for output layer.
model.add(Dense(4, input_dim=4, init='normal', activation='relu'))
model.add(Dense(3, init='normal', activation='sigmoid'))
而这儿http://blog.fastforwardlabs.com/2016/02/24/hello-world-in-keras-or-scikit-learn-versus.html 用 sigmoid for input layer, softmax for output layer. 两个结果都不错。但为什么这么选,靠问题/经验?我试试把两个都选为‘sigmoid’,结果差的太远(几乎根本不对)。
另外,http://cs231n.github.io/neural-networks-1/#actfun 说,Never use sigmoid,又给弄糊涂了。原话是“TLDR: “What neuron type should I use?” Use the ReLU non-linearity, be careful with your learning rates and possibly monitor the fraction of “dead” units in a network. If this concerns you, give Leaky ReLU or Maxout a try. Never use sigmoid. Try tanh, but expect it to work worse than ReLU/Maxout.”
avatar
K*n
9
基本上符合这篇 paper 的论述
http://machinelearning.wustl.edu/mlpapers/paper_files/AISTATS2010_GlorotB10.pdf
以后不要再用 sigmoid 了

【在 S*******e 的大作中提到】
: 在这儿收益良多,再问问, 关于model, 上面例子用‘relu' for input layer, '
: sigmoid' for output layer.
: model.add(Dense(4, input_dim=4, init='normal', activation='relu'))
: model.add(Dense(3, init='normal', activation='sigmoid'))
: 而这儿http://blog.fastforwardlabs.com/2016/02/24/hello-world-in-keras-or-scikit-learn-versus.html 用 sigmoid for input layer, softmax for output layer. 两个结果都不错。但为什么这么选,靠问题/经验?我试试把两个都选为‘sigmoid’,结果差的太远(几乎根本不对)。
: 另外,http://cs231n.github.io/neural-networks-1/#actfun 说,Never use sigmoid,又给弄糊涂了。原话是“TLDR: “What neuron type should I use?” Use the ReLU non-linearity, be careful with your learning rates and possibly monitor the fraction of “dead” units in a network. If this concerns you, give Leaky ReLU or Maxout a try. Never use sigmoid. Try tanh, but expect it to work worse than ReLU/Maxout.”

avatar
w*g
10
softmax是保证输出加起来=1

【在 S*******e 的大作中提到】
: 在这儿收益良多,再问问, 关于model, 上面例子用‘relu' for input layer, '
: sigmoid' for output layer.
: model.add(Dense(4, input_dim=4, init='normal', activation='relu'))
: model.add(Dense(3, init='normal', activation='sigmoid'))
: 而这儿http://blog.fastforwardlabs.com/2016/02/24/hello-world-in-keras-or-scikit-learn-versus.html 用 sigmoid for input layer, softmax for output layer. 两个结果都不错。但为什么这么选,靠问题/经验?我试试把两个都选为‘sigmoid’,结果差的太远(几乎根本不对)。
: 另外,http://cs231n.github.io/neural-networks-1/#actfun 说,Never use sigmoid,又给弄糊涂了。原话是“TLDR: “What neuron type should I use?” Use the ReLU non-linearity, be careful with your learning rates and possibly monitor the fraction of “dead” units in a network. If this concerns you, give Leaky ReLU or Maxout a try. Never use sigmoid. Try tanh, but expect it to work worse than ReLU/Maxout.”

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。