avatar
再来推广下picpac# Programming - 葵花宝典
k*h
1
我妈妈一点也不会英文,也从来没有出过远门,听闻LAX非常复杂,因此非常担心她能
否顺利入关,找到飞华盛顿机场的登机口。寻和她同航班好心人捎她到登机口,非常感
激。
avatar
V*6
2
在多情剑客无情剑里,关于林诗音的正面描写和内心描写很少。
李寻欢的表妹,两人互相相爱,因为李寻欢觉得哥们感情更重要,把自己喜欢的妹纸推
给了哥们龙啸云。
林诗音很李寻欢,也不喜欢龙啸云,所以宠爱自己的儿子龙小云,龙小云是她的命门,
知道自己的丈夫儿子搞了很多阴谋对方李寻欢后,痛苦不堪。
其实这些痛苦,是可以不必承受的,自己喜欢的男人,可以努力争取。那么真要努力拒
绝龙啸云,是可以和李寻欢在一起的。
而李寻欢因为林诗音,对感情是彻底封闭,没有人能够再次走进他的世界。对任何女人
都很冷漠的李寻欢,还是被孙小红的死缠烂打给搞定了。
这点看,勇敢的争取自己的幸福,你才会真的幸福。
就像欢乐英雄里,燕七和郭大路一样,两人如果不是那么爱的拼命,最终是不可能在一
起的。
avatar
w*g
3
写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。
imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
训练得用SSD。
https://github.com/aaalgo/picpac-demos
铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch
都能支持。Lua/torch的binding也做了,不过估计也没人care了。
没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。
CPU上train这两个dataset没啥问题。
avatar
g*t
4
我回头匿名帮你宣传下。
avatar
x*i
5
谢大牛指点
这两天在玩image net,您的名字赫然在列,膜拜

:写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。
:imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
avatar
O*b
6
这个太赞了,生产力的源头啊。原来那个版本我就玩过

【在 w***g 的大作中提到】
: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。
: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
: 训练得用SSD。
: https://github.com/aaalgo/picpac-demos
: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch
: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。
: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。
: CPU上train这两个dataset没啥问题。

avatar
w*r
7
我昨天还真花了点时间调研了一下现在github上做data augmentation的工具
感觉Data augmentation越复杂,picpac的优势越明显。如果如果针对data
augmentation有个开放接口,就好了。
举个例子,我有一个人脸数据集,除了做简单的几何变形,我还想在pca space里对每
个sample的坐标做pertubation,如果便捷植入?
avatar
w*g
8
我设计得太generic了。
当时还有caffe和torch,所以觉得所有功能必须C++。
现在看来只剩python了,真要支持plugin的话,plugin也得是python写才行。
我自己的做法是不同类型的数据继承出一个新的项目。
目前还有picpac-wave用来做音频, picpac3d用来做3维CT数据。

【在 w*****r 的大作中提到】
: 我昨天还真花了点时间调研了一下现在github上做data augmentation的工具
: 感觉Data augmentation越复杂,picpac的优势越明显。如果如果针对data
: augmentation有个开放接口,就好了。
: 举个例子,我有一个人脸数据集,除了做简单的几何变形,我还想在pca space里对每
: 个sample的坐标做pertubation,如果便捷植入?

avatar
g*t
9
你可能需要琢磨下目标用户的人设?
然后软件和自己的开发时间,适当照顾主力用户需求。
有个帕累托原理,或者80-20原理。
80%用户是20%功能带来的。
但是微博这么杂乱的东西为何这两年
还死复生,我一直没看明白。所以我说的也不一定对。
另外在商言商,你要不去hack news发帖?第一行就说是
Imagnet之后的一大突破?


: 我设计得太generic了。

: 当时还有caffe和torch,所以觉得所有功能必须C 。

: 现在看来只剩python了,真要支持plugin的话,plugin也得是python写才
行。

: 我自己的做法是不同类型的数据继承出一个新的项目。

: 目前还有picpac-wave用来做音频, picpac3d用来做3维CT数据。



【在 w***g 的大作中提到】
: 我设计得太generic了。
: 当时还有caffe和torch,所以觉得所有功能必须C++。
: 现在看来只剩python了,真要支持plugin的话,plugin也得是python写才行。
: 我自己的做法是不同类型的数据继承出一个新的项目。
: 目前还有picpac-wave用来做音频, picpac3d用来做3维CT数据。

avatar
x*u
10
微博是靠着职业编辑无底线制造假新闻
比如我一个男同学最近忙于工作,微博却天天转发高中生追星迷妹的话题,这就是官方
盗号

【在 g****t 的大作中提到】
: 你可能需要琢磨下目标用户的人设?
: 然后软件和自己的开发时间,适当照顾主力用户需求。
: 有个帕累托原理,或者80-20原理。
: 80%用户是20%功能带来的。
: 但是微博这么杂乱的东西为何这两年
: 还死复生,我一直没看明白。所以我说的也不一定对。
: 另外在商言商,你要不去hack news发帖?第一行就说是
: Imagnet之后的一大突破?
:
:
: 我设计得太generic了。

avatar
x*u
11
训练用ssd是什么意思?为什么东西小了反而要ssd?

【在 w***g 的大作中提到】
: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。
: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
: 训练得用SSD。
: https://github.com/aaalgo/picpac-demos
: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch
: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。
: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。
: CPU上train这两个dataset没啥问题。

avatar
L*8
12
net = slim.batch_norm(slim.conv2d(net, 32, 3, 1))
net = slim.max_pool2d(net, 2, 2)
你把relu都给去掉了?

【在 w***g 的大作中提到】
: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。
: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
: 训练得用SSD。
: https://github.com/aaalgo/picpac-demos
: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch
: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。
: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。
: CPU上train这两个dataset没啥问题。

avatar
w*g
13
slim的conv2d自带relu。

【在 L****8 的大作中提到】
: net = slim.batch_norm(slim.conv2d(net, 32, 3, 1))
: net = slim.max_pool2d(net, 2, 2)
: 你把relu都给去掉了?

avatar
w*g
14
ssd是为了random seek。HDD没法seek。
ssd random I/O的速度基本上能保证GPU转满。

【在 x****u 的大作中提到】
: 训练用ssd是什么意思?为什么东西小了反而要ssd?
avatar
L*8
15
我记得你以前说过relu没用来着

【在 w***g 的大作中提到】
: slim的conv2d自带relu。
avatar
w*r
16
如果用ssd再组个raid0,没意义么?

【在 w***g 的大作中提到】
: ssd是为了random seek。HDD没法seek。
: ssd random I/O的速度基本上能保证GPU转满。

avatar
w*g
17
Raid1更快,多个盘镜像提速。走pcie的m2盘比ssd又快不少,就是堆不了太多还占pcie
。估计cpu做augmentation会先到瓶颈。

:如果用ssd再组个raid0,没意义么?
avatar
x*u
18
SSD和大RAM当cache怎么选择啊?
如果在云vm上操作,RAM不用不收钱,但SSD的存储费也不低啊

【在 w***g 的大作中提到】
: ssd是为了random seek。HDD没法seek。
: ssd random I/O的速度基本上能保证GPU转满。

avatar
x*u
19
深度学习模型的训练方法应该单独成为一个研究领域,研究在超参数固定优化算法固定
的时候怎么训练最终结果最好
数据无限且全部精确标记这个前提在地球上大部分时候都不成立啊。。。

【在 w***g 的大作中提到】
: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。
: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
: 训练得用SSD。
: https://github.com/aaalgo/picpac-demos
: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch
: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。
: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。
: CPU上train这两个dataset没啥问题。

avatar
w*g
20
云就是这个讨厌。什么都要拆散了算计。
可以平时存在HDD,训练前拷到SSD。
本来可以cache一半,另一半从SSD读,50% hit rate。
不过这么做也没太大意义了。SSD反正也够快。

【在 x****u 的大作中提到】
: SSD和大RAM当cache怎么选择啊?
: 如果在云vm上操作,RAM不用不收钱,但SSD的存储费也不低啊

avatar
x*u
21
想起另一个问题:有没有想过图像预处理上GPU?
如果图较多较大的话,用CPU算也是不经济的吧

【在 w***g 的大作中提到】
: 云就是这个讨厌。什么都要拆散了算计。
: 可以平时存在HDD,训练前拷到SSD。
: 本来可以cache一半,另一半从SSD读,50% hit rate。
: 不过这么做也没太大意义了。SSD反正也够快。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。