再来推广下picpac# Programming - 葵花宝典k*h2018-02-01 08:021 楼我妈妈一点也不会英文,也从来没有出过远门,听闻LAX非常复杂,因此非常担心她能否顺利入关,找到飞华盛顿机场的登机口。寻和她同航班好心人捎她到登机口,非常感激。
V*62018-02-01 08:022 楼在多情剑客无情剑里,关于林诗音的正面描写和内心描写很少。李寻欢的表妹,两人互相相爱,因为李寻欢觉得哥们感情更重要,把自己喜欢的妹纸推给了哥们龙啸云。林诗音很李寻欢,也不喜欢龙啸云,所以宠爱自己的儿子龙小云,龙小云是她的命门,知道自己的丈夫儿子搞了很多阴谋对方李寻欢后,痛苦不堪。其实这些痛苦,是可以不必承受的,自己喜欢的男人,可以努力争取。那么真要努力拒绝龙啸云,是可以和李寻欢在一起的。而李寻欢因为林诗音,对感情是彻底封闭,没有人能够再次走进他的世界。对任何女人都很冷漠的李寻欢,还是被孙小红的死缠烂打给搞定了。这点看,勇敢的争取自己的幸福,你才会真的幸福。就像欢乐英雄里,燕七和郭大路一样,两人如果不是那么爱的拼命,最终是不可能在一起的。
w*g2018-02-01 08:023 楼写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是训练得用SSD。https://github.com/aaalgo/picpac-demos铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch都能支持。Lua/torch的binding也做了,不过估计也没人care了。没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。CPU上train这两个dataset没啥问题。
x*i2018-02-01 08:025 楼谢大牛指点这两天在玩image net,您的名字赫然在列,膜拜:写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。:imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是
O*b2018-02-01 08:026 楼这个太赞了,生产力的源头啊。原来那个版本我就玩过【在 w***g 的大作中提到】: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是: 训练得用SSD。: https://github.com/aaalgo/picpac-demos: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。: CPU上train这两个dataset没啥问题。
w*r2018-02-01 08:027 楼我昨天还真花了点时间调研了一下现在github上做data augmentation的工具感觉Data augmentation越复杂,picpac的优势越明显。如果如果针对dataaugmentation有个开放接口,就好了。举个例子,我有一个人脸数据集,除了做简单的几何变形,我还想在pca space里对每个sample的坐标做pertubation,如果便捷植入?
w*g2018-02-01 08:028 楼我设计得太generic了。当时还有caffe和torch,所以觉得所有功能必须C++。现在看来只剩python了,真要支持plugin的话,plugin也得是python写才行。我自己的做法是不同类型的数据继承出一个新的项目。目前还有picpac-wave用来做音频, picpac3d用来做3维CT数据。【在 w*****r 的大作中提到】: 我昨天还真花了点时间调研了一下现在github上做data augmentation的工具: 感觉Data augmentation越复杂,picpac的优势越明显。如果如果针对data: augmentation有个开放接口,就好了。: 举个例子,我有一个人脸数据集,除了做简单的几何变形,我还想在pca space里对每: 个sample的坐标做pertubation,如果便捷植入?
g*t2018-02-01 08:029 楼你可能需要琢磨下目标用户的人设?然后软件和自己的开发时间,适当照顾主力用户需求。有个帕累托原理,或者80-20原理。80%用户是20%功能带来的。但是微博这么杂乱的东西为何这两年还死复生,我一直没看明白。所以我说的也不一定对。另外在商言商,你要不去hack news发帖?第一行就说是Imagnet之后的一大突破?: 我设计得太generic了。: 当时还有caffe和torch,所以觉得所有功能必须C 。: 现在看来只剩python了,真要支持plugin的话,plugin也得是python写才行。: 我自己的做法是不同类型的数据继承出一个新的项目。: 目前还有picpac-wave用来做音频, picpac3d用来做3维CT数据。【在 w***g 的大作中提到】: 我设计得太generic了。: 当时还有caffe和torch,所以觉得所有功能必须C++。: 现在看来只剩python了,真要支持plugin的话,plugin也得是python写才行。: 我自己的做法是不同类型的数据继承出一个新的项目。: 目前还有picpac-wave用来做音频, picpac3d用来做3维CT数据。
x*u2018-02-01 08:0210 楼微博是靠着职业编辑无底线制造假新闻比如我一个男同学最近忙于工作,微博却天天转发高中生追星迷妹的话题,这就是官方盗号【在 g****t 的大作中提到】: 你可能需要琢磨下目标用户的人设?: 然后软件和自己的开发时间,适当照顾主力用户需求。: 有个帕累托原理,或者80-20原理。: 80%用户是20%功能带来的。: 但是微博这么杂乱的东西为何这两年: 还死复生,我一直没看明白。所以我说的也不一定对。: 另外在商言商,你要不去hack news发帖?第一行就说是: Imagnet之后的一大突破?: : : 我设计得太generic了。
x*u2018-02-01 08:0211 楼训练用ssd是什么意思?为什么东西小了反而要ssd?【在 w***g 的大作中提到】: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是: 训练得用SSD。: https://github.com/aaalgo/picpac-demos: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。: CPU上train这两个dataset没啥问题。
L*82018-02-01 08:0212 楼net = slim.batch_norm(slim.conv2d(net, 32, 3, 1))net = slim.max_pool2d(net, 2, 2)你把relu都给去掉了?【在 w***g 的大作中提到】: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是: 训练得用SSD。: https://github.com/aaalgo/picpac-demos: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。: CPU上train这两个dataset没啥问题。
w*g2018-02-01 08:0213 楼slim的conv2d自带relu。【在 L****8 的大作中提到】: net = slim.batch_norm(slim.conv2d(net, 32, 3, 1)): net = slim.max_pool2d(net, 2, 2): 你把relu都给去掉了?
w*g2018-02-01 08:0214 楼ssd是为了random seek。HDD没法seek。ssd random I/O的速度基本上能保证GPU转满。【在 x****u 的大作中提到】: 训练用ssd是什么意思?为什么东西小了反而要ssd?
w*r2018-02-01 08:0216 楼如果用ssd再组个raid0,没意义么?【在 w***g 的大作中提到】: ssd是为了random seek。HDD没法seek。: ssd random I/O的速度基本上能保证GPU转满。
w*g2018-02-01 08:0217 楼Raid1更快,多个盘镜像提速。走pcie的m2盘比ssd又快不少,就是堆不了太多还占pcie。估计cpu做augmentation会先到瓶颈。:如果用ssd再组个raid0,没意义么?:
x*u2018-02-01 08:0218 楼SSD和大RAM当cache怎么选择啊?如果在云vm上操作,RAM不用不收钱,但SSD的存储费也不低啊【在 w***g 的大作中提到】: ssd是为了random seek。HDD没法seek。: ssd random I/O的速度基本上能保证GPU转满。
x*u2018-02-01 08:0219 楼深度学习模型的训练方法应该单独成为一个研究领域,研究在超参数固定优化算法固定的时候怎么训练最终结果最好数据无限且全部精确标记这个前提在地球上大部分时候都不成立啊。。。【在 w***g 的大作中提到】: 写了几个简化版的训练程序,以及nmist, cifar10的现成数据库用于玩耍。: imagenet 155G的数据我也downsize后用mozjpeg拼死压缩到了12G,就是: 训练得用SSD。: https://github.com/aaalgo/picpac-demos: 铁打的营盘流水的兵,数据把住了,框架随便换。 TF, mxnet, pytorch: 都能支持。Lua/torch的binding也做了,不过估计也没人care了。: 没玩过deep learning的同学,靠我这几个样例基本上也可以入门了。: CPU上train这两个dataset没啥问题。
w*g2018-02-01 08:0220 楼云就是这个讨厌。什么都要拆散了算计。可以平时存在HDD,训练前拷到SSD。本来可以cache一半,另一半从SSD读,50% hit rate。不过这么做也没太大意义了。SSD反正也够快。【在 x****u 的大作中提到】: SSD和大RAM当cache怎么选择啊?: 如果在云vm上操作,RAM不用不收钱,但SSD的存储费也不低啊
x*u2018-02-01 08:0221 楼想起另一个问题:有没有想过图像预处理上GPU?如果图较多较大的话,用CPU算也是不经济的吧【在 w***g 的大作中提到】: 云就是这个讨厌。什么都要拆散了算计。: 可以平时存在HDD,训练前拷到SSD。: 本来可以cache一半,另一半从SSD读,50% hit rate。: 不过这么做也没太大意义了。SSD反正也够快。