Redian新闻
>
第一次发帖,请问有没有做植物的?
avatar
第一次发帖,请问有没有做植物的?# Biology - 生物学
f*k
1
哪家银行的savings account利率比较高一点的?
我可以用我们这里的credit union, APY 1.25%,怎么样?有哈蛤的可以申请么?
avatar
s*a
2
我需要对很大的图像做分割。比如说size是 2048×2048。图像数量只有几百幅。 在做
训练集的时候, 我把大幅照片分割成小得,比如说64×64。
在做prediction的时候,就像sliding window 一样, 依次从2048×2048中选取64×64
的方格, feed到训练好的network里做分割。然后粘贴起来成为整个2048×2048的分割
图像。 这样的方法是标准的做法吗。一般在patch交接的地方,比如第一个64×64 和
第二个64×64交界的那些pixel会看出不连续的样子。有没有更好的做法。
avatar
H*3
3
请问这里有没有做植物的,是否了解加州理工的植物学大牛Elliot Meyernowitz。想申
请他们组,不知道老板人怎么样。委婉地发邮件给了他们组的几个中国人,没有消息,
希望这里有了解地可以给点信息。多谢了。
avatar
l*h
4
http://mitbbs.com/article1/Money/31491891_3_0.html
1.2% plus upto $350 bonus

【在 f******k 的大作中提到】
: 哪家银行的savings account利率比较高一点的?
: 我可以用我们这里的credit union, APY 1.25%,怎么样?有哈蛤的可以申请么?

avatar
j*g
5
把slide调成1.等于总共有(2048-64+1)*(2048-64+1)个patches。再把output组合起来
avatar
c*y
6
我觉得你应该给隔壁组的中国人发信问问,我评价别人的老板的时候从来公正。
avatar
s*a
7
我这么做过, 结果是平滑很多,但那些pixel就会显得非常模糊。当然我可以用一个特
定的threshold, 把这些pixel value 归成0 或一。还有其它的做法吗?

【在 j********g 的大作中提到】
: 把slide调成1.等于总共有(2048-64+1)*(2048-64+1)个patches。再把output组合起来
: 。

avatar
j*x
8
不回应,有时候也算是一种回应了吧,呵呵
avatar
w*g
9
训练时用patch, 预测时用全图。64有点太小,两三百三四百比较正常吧。实在不行采
用stitch.

64

【在 s******a 的大作中提到】
: 我需要对很大的图像做分割。比如说size是 2048×2048。图像数量只有几百幅。 在做
: 训练集的时候, 我把大幅照片分割成小得,比如说64×64。
: 在做prediction的时候,就像sliding window 一样, 依次从2048×2048中选取64×64
: 的方格, feed到训练好的network里做分割。然后粘贴起来成为整个2048×2048的分割
: 图像。 这样的方法是标准的做法吗。一般在patch交接的地方,比如第一个64×64 和
: 第二个64×64交界的那些pixel会看出不连续的样子。有没有更好的做法。

avatar
H*3
10
多谢ls的回复,看来这边做植物的真的不多。
avatar
s*a
11
谢谢, 我再试试。 有两个问题
1) 预测时用全图。可建model的时候用的是patch,相当于局部信息。虽说CNN可以抓
global, 但这么用好象思路上没转过来。
2)还有在具体实现上,比如我训练时基于64×64。 第一层入口处的输入image shape
也是设定成64×64。假如我预测时feed进256×256。 这个通不过呀。 是不是先把256
×256 resize成64×64, 预测完再resize回来。
能不能说一下你提到的stitch 是什么意思。感谢。

训练时用patch, 预测时用全图。64有点太小,两三百三四百比较正常吧。实在不行采

【在 w***g 的大作中提到】
: 训练时用patch, 预测时用全图。64有点太小,两三百三四百比较正常吧。实在不行采
: 用stitch.
:
: 64

avatar
p*g
12
Meyernowitz WAS famous, about 20 years ago.
avatar
w*g
13
FCN的输入不需要确定大小,至少我用过caffe和tensorflow都支持自动调整大小。
只要保证每个batch大小一致就行。我都是batch size = 1。
比如
X = tf.placeholder(tf.float32, shape=(None, None, None, 3), name="images")
Y = tf.placeholder(tf.float32, shape=(None, None, None, 1), name="labels")
只有channel数是定的,batch size和图片大小都是每个iteration动态调整的。
你的问题不是CNN抓global信息。FCN本身就是一个大的convolution,就是local的。
你的问题是一般network的receptive field都> 64,也就是说大于你的input size。
这样你train出来的model都会expect有白边。如果这个model直接apply到全图上,
中间那些位置没有白边,就会和training example有systematic的差别。
你把test image切片可以避免这个问题,但是输出会损失连续性。因为你的每个
patch在预测的时候系统其实都偷偷给你加了白边。如果非要stitch,我觉得加大
patch size能改善你这个问题。

shape
256

【在 s******a 的大作中提到】
: 谢谢, 我再试试。 有两个问题
: 1) 预测时用全图。可建model的时候用的是patch,相当于局部信息。虽说CNN可以抓
: global, 但这么用好象思路上没转过来。
: 2)还有在具体实现上,比如我训练时基于64×64。 第一层入口处的输入image shape
: 也是设定成64×64。假如我预测时feed进256×256。 这个通不过呀。 是不是先把256
: ×256 resize成64×64, 预测完再resize回来。
: 能不能说一下你提到的stitch 是什么意思。感谢。
:
: 训练时用patch, 预测时用全图。64有点太小,两三百三四百比较正常吧。实在不行采

avatar
z*o
14
WAS? 不至于吧?他可是好几个大牛的老板啊

【在 p*********g 的大作中提到】
: Meyernowitz WAS famous, about 20 years ago.
avatar
w*g
15
你这个套路有一种暴力美, 我很喜欢。

【在 j********g 的大作中提到】
: 把slide调成1.等于总共有(2048-64+1)*(2048-64+1)个patches。再把output组合起来
: 。

avatar
p*g
16
我再说他自己现在的research的影响力对比以前的。以前发育生物学那是个标杆啊,刚
刚的。 不过老先生做学术已经上升到了做哲学的高度,值得敬佩。

【在 z*******o 的大作中提到】
: WAS? 不至于吧?他可是好几个大牛的老板啊
avatar
s*a
17
wdong,谢谢。 请问这个receptive field是不是根据max pooling的 层数算出来的,
比如我有四层 pooling,假设size是2, 那么receptive field就是64。 这里假设con
V layer没有pixel的丢失。
另外你说的这个 “如果这个model直接apply到全图上,
中间那些位置没有白边,就会和training example有systematic的差别” 怎么理解,
为什么中间没有白边,怎末就和training example有systematic的差别? 谢了。

【在 w***g 的大作中提到】
: FCN的输入不需要确定大小,至少我用过caffe和tensorflow都支持自动调整大小。
: 只要保证每个batch大小一致就行。我都是batch size = 1。
: 比如
: X = tf.placeholder(tf.float32, shape=(None, None, None, 3), name="images")
: Y = tf.placeholder(tf.float32, shape=(None, None, None, 1), name="labels")
: 只有channel数是定的,batch size和图片大小都是每个iteration动态调整的。
: 你的问题不是CNN抓global信息。FCN本身就是一个大的convolution,就是local的。
: 你的问题是一般network的receptive field都> 64,也就是说大于你的input size。
: 这样你train出来的model都会expect有白边。如果这个model直接apply到全图上,
: 中间那些位置没有白边,就会和training example有systematic的差别。

avatar
g*1
18
现在还是大牛,实验室人巨多。不过人均灌水能力似乎不算强。
去年他实验室一个PHD来我们实验室面试,文章比较一般。不过人家就是有牛实验室出
来的范儿,不服不行。
avatar
w*g
19
比如某层convolution, filter size是5, step size是2, 那么这层output的每个
pixel的receptive field就是7. 然后就一层层叠加。
我有个自动算receptive field的程序
https://github.com/aaalgo/tfgraph
你的training example是66, 这个一般会小于receptive field。所以你的model
train的时候padding就会生效,会pad进去synthatic的东西,倒是不一定是白边。
如果你的每个training example都需要padding, 你的model就会把padding作为
数据的特征学进去。
testing时如果图片大于receptive field,那么convolve到中间的时候就不需要
padding,这时候model看不到padding反而就觉得不正常了。

con


【在 s******a 的大作中提到】
: wdong,谢谢。 请问这个receptive field是不是根据max pooling的 层数算出来的,
: 比如我有四层 pooling,假设size是2, 那么receptive field就是64。 这里假设con
: V layer没有pixel的丢失。
: 另外你说的这个 “如果这个model直接apply到全图上,
: 中间那些位置没有白边,就会和training example有systematic的差别” 怎么理解,
: 为什么中间没有白边,怎末就和training example有systematic的差别? 谢了。

avatar
H*3
20
听说很push的一个老板,道听途说,也不知道真假,最近人均文章确实还一般,感觉年
龄上来说应该也快退了。
avatar
w*g
21
我那个receptive field算得不对。我自己也绕糊涂了。
conv filter=5, step=2 然后后面加 max pool step = 2
那么max pool本身的receptive field是2.
叠加到conv后变成 2 + 5 = 7, 因为连续两个convolution window有重叠。
关于白边这个事情是我自己拍脑子想的,我也是一直这么practice的。
不过我还真没试过用66那么小的patch做训练。

【在 w***g 的大作中提到】
: 比如某层convolution, filter size是5, step size是2, 那么这层output的每个
: pixel的receptive field就是7. 然后就一层层叠加。
: 我有个自动算receptive field的程序
: https://github.com/aaalgo/tfgraph
: 你的training example是66, 这个一般会小于receptive field。所以你的model
: train的时候padding就会生效,会pad进去synthatic的东西,倒是不一定是白边。
: 如果你的每个training example都需要padding, 你的model就会把padding作为
: 数据的特征学进去。
: testing时如果图片大于receptive field,那么convolve到中间的时候就不需要
: padding,这时候model看不到padding反而就觉得不正常了。

avatar
w*n
22
你确定他们不是因为你把他们老板的名字而不愿意理你?(I guess you mean Elliot
Meyerowitz,not Elliot Meyernowitz). Just kidding.

【在 H***3 的大作中提到】
: 请问这里有没有做植物的,是否了解加州理工的植物学大牛Elliot Meyernowitz。想申
: 请他们组,不知道老板人怎么样。委婉地发邮件给了他们组的几个中国人,没有消息,
: 希望这里有了解地可以给点信息。多谢了。

avatar
l*m
23
他这个图片比较大,面积基本是大陆货的20倍,估计inference够慢的

【在 w***g 的大作中提到】
: FCN的输入不需要确定大小,至少我用过caffe和tensorflow都支持自动调整大小。
: 只要保证每个batch大小一致就行。我都是batch size = 1。
: 比如
: X = tf.placeholder(tf.float32, shape=(None, None, None, 3), name="images")
: Y = tf.placeholder(tf.float32, shape=(None, None, None, 1), name="labels")
: 只有channel数是定的,batch size和图片大小都是每个iteration动态调整的。
: 你的问题不是CNN抓global信息。FCN本身就是一个大的convolution,就是local的。
: 你的问题是一般network的receptive field都> 64,也就是说大于你的input size。
: 这样你train出来的model都会expect有白边。如果这个model直接apply到全图上,
: 中间那些位置没有白边,就会和training example有systematic的差别。

avatar
n*8
24
hong ma 就是他实验室出来的吧
avatar
s*a
25
我试过128 和64的, 确实128的好不少。我用的是U-net来做的segmentation。

【在 w***g 的大作中提到】
: 我那个receptive field算得不对。我自己也绕糊涂了。
: conv filter=5, step=2 然后后面加 max pool step = 2
: 那么max pool本身的receptive field是2.
: 叠加到conv后变成 2 + 5 = 7, 因为连续两个convolution window有重叠。
: 关于白边这个事情是我自己拍脑子想的,我也是一直这么practice的。
: 不过我还真没试过用66那么小的patch做训练。

avatar
n*8
26
江湖地位很高啊,传说中的植物三老之一
avatar
s*a
27
请问你说的这个inference 很慢,是针对wdong 的approach:用小patch(比如256×
256)training, 然后把全幅照片直接predict吗?那这样做,inference 慢的原因是
什么呢?

【在 l*******m 的大作中提到】
: 他这个图片比较大,面积基本是大陆货的20倍,估计inference够慢的
avatar
b*s
28
what are the three? Elliot, chris somerville and who else?

【在 n**8 的大作中提到】
: 江湖地位很高啊,传说中的植物三老之一
avatar
w*g
29
楼上你搞啥图片,方便的话贴一个出来也让众弟兄见识见识。

【在 s******a 的大作中提到】
: 我试过128 和64的, 确实128的好不少。我用的是U-net来做的segmentation。
avatar
l*m
30
wdong的方法是最快的,我说慢是你图片的好大

【在 s******a 的大作中提到】
: 请问你说的这个inference 很慢,是针对wdong 的approach:用小patch(比如256×
: 256)training, 然后把全幅照片直接predict吗?那这样做,inference 慢的原因是
: 什么呢?

avatar
l*m
31
估计unet基本上生物医学图片

【在 w***g 的大作中提到】
: 楼上你搞啥图片,方便的话贴一个出来也让众弟兄见识见识。
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。