Redian新闻
>
CNN transfer learning 为啥这么牛逼?
avatar
CNN transfer learning 为啥这么牛逼?# Programming - 葵花宝典
w*0
1
【 以下文字转载自 NewYork 讨论区 】
发信人: wan210 (fish), 信区: NewYork
标 题: 帮我妈找同行10月中下旬上海浦东至纽约
发信站: BBS 未名空间站 (Sat Sep 1 22:57:44 2012, 美东)
机票还没买,所以时间和航班都比较灵活,希望是10月中下旬左右。
只要是上海浦东直飞到纽约JFK或者Newark都可以。
哪位如果正好在10月中下旬左右或者有朋友来纽约
能否站内告诉一声,主要照顾一下入关还有帮忙填写一下I-94表格
我可以付一定报酬或者大纽约地区也可以帮你送回家。
谢谢!
avatar
z*i
2
准备交485了,有一项材料是PERM at pendency of I-140,这是长什么样子的呢?多谢
avatar
L*8
3
ImageNet 可以 transfer 到 medical image 风马牛不相及
把最后一层删掉 不用微调 就可得到好结果
avatar
C*5
4
前面几层是建立了对图形的基本概念。最后一层是把这些概念结合形成判断。就好像学
写大字,横竖撇捺练好再写字就容易了。

【在 L****8 的大作中提到】
: ImageNet 可以 transfer 到 medical image 风马牛不相及
: 把最后一层删掉 不用微调 就可得到好结果

avatar
L*8
5
4096-1000-softmax 1000分类
我就把softmax扔了 用1000做feature 然后效果还是很好 真是惊奇了

【在 C*****5 的大作中提到】
: 前面几层是建立了对图形的基本概念。最后一层是把这些概念结合形成判断。就好像学
: 写大字,横竖撇捺练好再写字就容易了。

avatar
x*4
6
正解!

【在 C*****5 的大作中提到】
: 前面几层是建立了对图形的基本概念。最后一层是把这些概念结合形成判断。就好像学
: 写大字,横竖撇捺练好再写字就容易了。

avatar
x*u
7
自动生成多层卷积层的技术是DL对人类科学最大的贡献啊

【在 L****8 的大作中提到】
: 4096-1000-softmax 1000分类
: 我就把softmax扔了 用1000做feature 然后效果还是很好 真是惊奇了

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。