avatar
paper help-thanks a lot!# Chemistry - 化学
e*9
1
最近snapchat在大规模招人,2017的new grad已经开放, 有工作经验的一直在招,每
天面试很多,提供内推
希望加入snapchat的请发邮件至[email protected]/* */,附上你的简历。
avatar
g*g
2
【 以下文字转载自 TAX 讨论区 】
发信人: guaguadog (guaguadog), 信区: TAX
标 题: 第六年OPT给两个employer工作
发信站: BBS 未名空间站 (Tue Mar 17 13:18:56 2009)
来美第六年了,还能有头5000免税吗?
还有,一个employer现在开始扣我SS和MED,另一个没有,应该怎么办呢?
谢谢
avatar
g*7
3
索马里恐怖组织“青年军”对内罗毕豪华酒店杜森酒店发起的恐袭事件中,至少21人死
亡。
而在这场恐怖袭击中丧生的人员之一,杰森·斯平德勒,是一名美国的40岁商人,他是
911的幸存者,但是命运终究没有放过他,和死神擦肩而过的他最终还是死在了恐怖袭
击中,当时他正在和平常一样在酒店内吃午餐。斯平德勒是I-DEV International战略
管理和投资公司的CEO,该公司总部设立在内罗毕。
在2001年9·11事件发生时,他公司所在的7号楼被完全摧毁。但是幸运的是,在大楼彻
底崩塌前,斯平德勒成功逃脱,捡回一条命。和死神擦肩,他又留在人世间生活,只是
就好像是死神的漏网之鱼,他在这次的恐怖袭击中丧生了。
人生在世谁知道生死呢?有人说生死早已注定,只是人们苦苦挣扎不去面对罢了,只是
活着的每一天是不是都当成最后一天去过呢?
昏昏沉沉的日子你可曾经想过也许你现在的无聊生活是多少人奢求不到的幸福呢?
所以想做什么的时候既大胆去做吧,时间从不停止,在你还不确定的时候,时间已经占
据了你的全部,他让你一直像提线木偶,为生活而活。
avatar
a*d
4
朦胧间在家和office间穿梭。
离开家去office时迎面碰上嫂嫂和一个女孩。嫂嫂问了一些住宿的杂事,别过。
在office呆了两分钟又溜回家,已经是开饭时间了。那女孩也在席间,吃一半仓促间掉
了一双筷子。老妈换筷子的时候突然丢下一句话:你是不是XXX (我中学一位同学)啊
?大惊,偷眼望去,还真有几分像。
末几待女孩离开,偷偷问起嫂嫂。她说,我也没注意到,你妈妈一说,再一看,还真像
!不过成熟不少。恍惚间一想,这个女生,我和我嫂嫂都认识。。。那眼前这嫂嫂应该
是前嫂嫂了。老哥居然也在席间。不禁脱口而出:这么多年不见,你也成熟不少。突然
无语凝噎。
家呢?爸爸妈妈又怎么会在美国呢?。。。原来此生竟是梦。
avatar
l*s
5
我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
消耗很可观,我还没有详细测试过,但是估计小不了。
现在问题是,这个web service做好后,放哪里?
网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电
费也还凑活。问题就是24小时开着,噪音受不了。最大的问题还是可靠性和带宽,实在
没法保证。
各位有啥注意?先谢了。
avatar
d*h
6
【作者】Kanji Suyama, and Masamitsu Shiraia
【文题】Photobase generators: Recent progress and application trend in
polymer systems
【期刊名,年份,卷(期),起止页码】Progress in Polymer Science
Volume 34, Issue 2, February 2009, Pages 194-209
【全文链接】http://www.sciencedirect.com/science?_ob=ArticleURL&_udi=B6TX2-4TXF7TB-2&_user=2400262&_rdoc=1&_fmt=&_orig=search&_sort=d&view=c&_acct=C000057185&_version=1&_urlVersion=0&_userid=2400262&md5=1997d5be8f91a3ccb8efbb422074043d
【DOI】doi:10.1016/j.progpolymsci.2008.08.005
【求助者联
avatar
j*k
7
五年后就没有了,如果是学生的话
不是学生,早就没有了

【在 g*******g 的大作中提到】
: 【 以下文字转载自 TAX 讨论区 】
: 发信人: guaguadog (guaguadog), 信区: TAX
: 标 题: 第六年OPT给两个employer工作
: 发信站: BBS 未名空间站 (Tue Mar 17 13:18:56 2009)
: 来美第六年了,还能有头5000免税吗?
: 还有,一个employer现在开始扣我SS和MED,另一个没有,应该怎么办呢?
: 谢谢

avatar
c*e
8
godaddy.com?

app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
i*9
9
see yoour email, too big here.
avatar
m*t
10
no
as my known, this treaty is unlimited if you are a student(F1)
avatar
l*s
11
这家貌似挺大 用的人挺多 但是大多数就是放个网站在上面 运算量不大 php+mysql之
类的
用过的来说说?

【在 c*********e 的大作中提到】
: godaddy.com?
:
: app。
: learning

avatar
d*h
12
Thank you very much for your help. Have a nice day.

【在 i*****9 的大作中提到】
: see yoour email, too big here.
avatar
b*i
13
托管?

app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
g*g
14
啥写的?看看Google AppEngine?

app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
l*s
15
还没写好。
用java
数据库有可能用mysql,或者干脆不用数据库。

【在 g*****g 的大作中提到】
: 啥写的?看看Google AppEngine?
:
: app。
: learning

avatar
z*3
16
用appengine

【在 l*******s 的大作中提到】
: 还没写好。
: 用java
: 数据库有可能用mysql,或者干脆不用数据库。

avatar
l*s
17
看了下 算了算 貌似比托管还贵

【在 z*******3 的大作中提到】
: 用appengine
avatar
d*n
18
server 只管数据,
运算用javascript.消耗用户的资源。算完了发给server.
就看你有没有勇气用js写ML了。
缺点,open source, 慢

【在 l*******s 的大作中提到】
: 还没写好。
: 用java
: 数据库有可能用mysql,或者干脆不用数据库。

avatar
b*i
19
托管当然最便宜,然后是aws。但是你的峰值运算量也太大了。

【在 l*******s 的大作中提到】
: 看了下 算了算 貌似比托管还贵
avatar
l*s
20
没有勇气。
不管啥语言 就算是c实现的ML模型 在load进model文件时 至少要几秒 更不用说js了
这个时候 客户手机基本就停止响应了

【在 d****n 的大作中提到】
: server 只管数据,
: 运算用javascript.消耗用户的资源。算完了发给server.
: 就看你有没有勇气用js写ML了。
: 缺点,open source, 慢

avatar
w*g
21
找个colocation data center,自己攒好机器后放过去就行。也是几十块钱一个月。我
用的是这家http://www.nexcess.net/. 需求跟你完全一样.
我很好奇双CPU+64G内存怎么样
app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
z*3
22
要不你看看open shift?

【在 l*******s 的大作中提到】
: 没有勇气。
: 不管啥语言 就算是c实现的ML模型 在load进model文件时 至少要几秒 更不用说js了
: 这个时候 客户手机基本就停止响应了

avatar
l*s
23
看来colocation是个办法
我说1000$,确实不大够,当时没怎么考察硬件行情。
对了 能说说你的server配置不?你运行的程序运算量大体是怎么个情况?

【在 w***g 的大作中提到】
: 找个colocation data center,自己攒好机器后放过去就行。也是几十块钱一个月。我
: 用的是这家http://www.nexcess.net/. 需求跟你完全一样.
: 我很好奇双CPU+64G内存怎么样:
: app。
: learning

avatar
l*s
24
正在看
可以考虑

【在 z*******3 的大作中提到】
: 要不你看看open shift?
avatar
b*i
25
最近又看到google computing engine,估计类似aws了,是高性能计算的。你可以看看。

【在 l*******s 的大作中提到】
: 正在看
: 可以考虑

avatar
c*e
26
public cloud还是挺贵的。先自己弄个机器弄个business plan在家里用一段时间。等
有人真正开始用你的service以后,再考虑EC2或者Azure.其实,传统的托管价格比较实
惠。关键是你的整个pipeline是怎么做的,比如你需要periodically run hadoop job
做traning产生model吗? 这又牵涉到你的data store用什么。 看你说的,应该是考虑
mongoDB,CouchDB之类的,总的来说,这方面EC2玩起来最flexible.
如果用微软的平台,可以不花钱加入bizspark.三年之内用windows server, sql
server license不要钱。用Azure有免费的package价值$60K.
decision tree, random forest之类的classifier很快.优化一下你的engine吧。model
可以放到memory cache里面.如果qps确实高,可以很容易增加你的role instance
number。
从cost优化的角度考虑,可以把request分tier做。如某些可以用糙一点的模型。
一般training数据多比较慢,我不觉得classifier本身跑起来很慢。如果用了现成的
package很慢,想办法优化吧。
avatar
b*e
27
这个绝对用Amazon AWS Cloud省钱,省力。
如果你还没有用过AWS cloud,强烈推荐你去试试。AWS的存储备份计算等所有你用到的
基本上都齐全,能省无数精力。尤其是你可能需要某些峰值运算,可以建个image,同
时开数百台机器。
价格上用spot instance,4核CPU每个小时几分钱,比自家机器的电费都少。
更好的办法是,去ebay 搜索 “aws credit",可以买到30块钱买到$100的credit,更省
了。
avatar
z*i
28
能不能给推荐个AWS的教材?目前看到的全是无用的教程。

【在 b***e 的大作中提到】
: 这个绝对用Amazon AWS Cloud省钱,省力。
: 如果你还没有用过AWS cloud,强烈推荐你去试试。AWS的存储备份计算等所有你用到的
: 基本上都齐全,能省无数精力。尤其是你可能需要某些峰值运算,可以建个image,同
: 时开数百台机器。
: 价格上用spot instance,4核CPU每个小时几分钱,比自家机器的电费都少。
: 更好的办法是,去ebay 搜索 “aws credit",可以买到30块钱买到$100的credit,更省
: 了。

avatar
l*s
29
我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
消耗很可观,我还没有详细测试过,但是估计小不了。
现在问题是,这个web service做好后,放哪里?
网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电
费也还凑活。问题就是24小时开着,噪音受不了。最大的问题还是可靠性和带宽,实在
没法保证。
各位有啥注意?先谢了。
avatar
c*e
30
godaddy.com?

app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
l*s
31
这家貌似挺大 用的人挺多 但是大多数就是放个网站在上面 运算量不大 php+mysql之
类的
用过的来说说?

【在 c*********e 的大作中提到】
: godaddy.com?
:
: app。
: learning

avatar
b*i
32
托管?

app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
g*g
33
啥写的?看看Google AppEngine?

app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
l*s
34
还没写好。
用java
数据库有可能用mysql,或者干脆不用数据库。

【在 g*****g 的大作中提到】
: 啥写的?看看Google AppEngine?
:
: app。
: learning

avatar
z*3
35
用appengine

【在 l*******s 的大作中提到】
: 还没写好。
: 用java
: 数据库有可能用mysql,或者干脆不用数据库。

avatar
l*s
36
看了下 算了算 貌似比托管还贵

【在 z*******3 的大作中提到】
: 用appengine
avatar
d*n
37
server 只管数据,
运算用javascript.消耗用户的资源。算完了发给server.
就看你有没有勇气用js写ML了。
缺点,open source, 慢

【在 l*******s 的大作中提到】
: 还没写好。
: 用java
: 数据库有可能用mysql,或者干脆不用数据库。

avatar
b*i
38
托管当然最便宜,然后是aws。但是你的峰值运算量也太大了。

【在 l*******s 的大作中提到】
: 看了下 算了算 貌似比托管还贵
avatar
l*s
39
没有勇气。
不管啥语言 就算是c实现的ML模型 在load进model文件时 至少要几秒 更不用说js了
这个时候 客户手机基本就停止响应了

【在 d****n 的大作中提到】
: server 只管数据,
: 运算用javascript.消耗用户的资源。算完了发给server.
: 就看你有没有勇气用js写ML了。
: 缺点,open source, 慢

avatar
w*g
40
找个colocation data center,自己攒好机器后放过去就行。也是几十块钱一个月。我
用的是这家http://www.nexcess.net/. 需求跟你完全一样.
我很好奇双CPU+64G内存怎么样
app。
learning

【在 l*******s 的大作中提到】
: 我最近在搞个自己的小project,后台web service + 前台网页,iphone,android app。
: 牵扯到大量运算。比如每个用户提交request时,后台会涉及到一些machine learning
: 的东西,所以运算量不小。就算用cache优化一下,估计还是运算很频繁。要是一分钟
: 有100个request进来,少说得调用machine learning classifier几十次,cpu和内存的
: 消耗很可观,我还没有详细测试过,但是估计小不了。
: 现在问题是,这个web service做好后,放哪里?
: 网上有不少VPS或者web host之类的,几十块钱一个月,给个1G内存+一个cpu,若干硬
: 盘空间和带宽,但是就我那一大堆machine learning的东西,估计不大够。要是内存上
: 了2G,那VPS的价格就是翻好几番了。伤不起啊。。。
: 自己在家攒个个server?硬件并不贵,就算整个双cpu+64G内存,也就不到一千刀。电

avatar
z*3
41
要不你看看open shift?

【在 l*******s 的大作中提到】
: 没有勇气。
: 不管啥语言 就算是c实现的ML模型 在load进model文件时 至少要几秒 更不用说js了
: 这个时候 客户手机基本就停止响应了

avatar
l*s
42
看来colocation是个办法
我说1000$,确实不大够,当时没怎么考察硬件行情。
对了 能说说你的server配置不?你运行的程序运算量大体是怎么个情况?

【在 w***g 的大作中提到】
: 找个colocation data center,自己攒好机器后放过去就行。也是几十块钱一个月。我
: 用的是这家http://www.nexcess.net/. 需求跟你完全一样.
: 我很好奇双CPU+64G内存怎么样:
: app。
: learning

avatar
l*s
43
正在看
可以考虑

【在 z*******3 的大作中提到】
: 要不你看看open shift?
avatar
b*i
44
最近又看到google computing engine,估计类似aws了,是高性能计算的。你可以看看。

【在 l*******s 的大作中提到】
: 正在看
: 可以考虑

avatar
c*e
45
public cloud还是挺贵的。先自己弄个机器弄个business plan在家里用一段时间。等
有人真正开始用你的service以后,再考虑EC2或者Azure.其实,传统的托管价格比较实
惠。关键是你的整个pipeline是怎么做的,比如你需要periodically run hadoop job
做traning产生model吗? 这又牵涉到你的data store用什么。 看你说的,应该是考虑
mongoDB,CouchDB之类的,总的来说,这方面EC2玩起来最flexible.
如果用微软的平台,可以不花钱加入bizspark.三年之内用windows server, sql
server license不要钱。用Azure有免费的package价值$60K.
decision tree, random forest之类的classifier很快.优化一下你的engine吧。model
可以放到memory cache里面.如果qps确实高,可以很容易增加你的role instance
number。
从cost优化的角度考虑,可以把request分tier做。如某些可以用糙一点的模型。
一般training数据多比较慢,我不觉得classifier本身跑起来很慢。如果用了现成的
package很慢,想办法优化吧。
avatar
b*e
46
这个绝对用Amazon AWS Cloud省钱,省力。
如果你还没有用过AWS cloud,强烈推荐你去试试。AWS的存储备份计算等所有你用到的
基本上都齐全,能省无数精力。尤其是你可能需要某些峰值运算,可以建个image,同
时开数百台机器。
价格上用spot instance,4核CPU每个小时几分钱,比自家机器的电费都少。
更好的办法是,去ebay 搜索 “aws credit",可以买到30块钱买到$100的credit,更省
了。
avatar
z*i
47
能不能给推荐个AWS的教材?目前看到的全是无用的教程。

【在 b***e 的大作中提到】
: 这个绝对用Amazon AWS Cloud省钱,省力。
: 如果你还没有用过AWS cloud,强烈推荐你去试试。AWS的存储备份计算等所有你用到的
: 基本上都齐全,能省无数精力。尤其是你可能需要某些峰值运算,可以建个image,同
: 时开数百台机器。
: 价格上用spot instance,4核CPU每个小时几分钱,比自家机器的电费都少。
: 更好的办法是,去ebay 搜索 “aws credit",可以买到30块钱买到$100的credit,更省
: 了。

avatar
l*s
48
多谢,正在看AWS的价格计算方法,七七八八的也不少。
我目前的project状态:
cpu估计俩核就够了
内存需要4G,因为要跑mysql和一些machine learning的webservice
硬盘需求很低,10G撑死了
带宽一般就行,目前访问量很低。
这个大体估算一下多少钱?
目前我用的是65刀一个月的dedicated server,VolumeDrive的,性价比非常高,至强
1230,8G内存,1T硬盘,Gbps带宽。就是不大稳定,一个月down机两次。

【在 b***e 的大作中提到】
: 这个绝对用Amazon AWS Cloud省钱,省力。
: 如果你还没有用过AWS cloud,强烈推荐你去试试。AWS的存储备份计算等所有你用到的
: 基本上都齐全,能省无数精力。尤其是你可能需要某些峰值运算,可以建个image,同
: 时开数百台机器。
: 价格上用spot instance,4核CPU每个小时几分钱,比自家机器的电费都少。
: 更好的办法是,去ebay 搜索 “aws credit",可以买到30块钱买到$100的credit,更省
: 了。

avatar
w*k
49
ec2 medium instane
reserve一年,几百快钱

【在 l*******s 的大作中提到】
: 多谢,正在看AWS的价格计算方法,七七八八的也不少。
: 我目前的project状态:
: cpu估计俩核就够了
: 内存需要4G,因为要跑mysql和一些machine learning的webservice
: 硬盘需求很低,10G撑死了
: 带宽一般就行,目前访问量很低。
: 这个大体估算一下多少钱?
: 目前我用的是65刀一个月的dedicated server,VolumeDrive的,性价比非常高,至强
: 1230,8G内存,1T硬盘,Gbps带宽。就是不大稳定,一个月down机两次。

avatar
l*s
50
bizspark是个好东西 有空慢慢研究下
关于machine learning好资源的那部分 我全改成了集中运算数据然后存到数据库里,
后面用户访问就基本都是database的IO操作了,相比之前用ML实时运算出结果少很多消
耗。也算是加了cache吧。
现在估计server 俩核cpu,3G内存就足够了。

job
model

【在 c****e 的大作中提到】
: public cloud还是挺贵的。先自己弄个机器弄个business plan在家里用一段时间。等
: 有人真正开始用你的service以后,再考虑EC2或者Azure.其实,传统的托管价格比较实
: 惠。关键是你的整个pipeline是怎么做的,比如你需要periodically run hadoop job
: 做traning产生model吗? 这又牵涉到你的data store用什么。 看你说的,应该是考虑
: mongoDB,CouchDB之类的,总的来说,这方面EC2玩起来最flexible.
: 如果用微软的平台,可以不花钱加入bizspark.三年之内用windows server, sql
: server license不要钱。用Azure有免费的package价值$60K.
: decision tree, random forest之类的classifier很快.优化一下你的engine吧。model
: 可以放到memory cache里面.如果qps确实高,可以很容易增加你的role instance
: number。

avatar
n*t
51
省钱???你搞笑吧。

【在 b***e 的大作中提到】
: 这个绝对用Amazon AWS Cloud省钱,省力。
: 如果你还没有用过AWS cloud,强烈推荐你去试试。AWS的存储备份计算等所有你用到的
: 基本上都齐全,能省无数精力。尤其是你可能需要某些峰值运算,可以建个image,同
: 时开数百台机器。
: 价格上用spot instance,4核CPU每个小时几分钱,比自家机器的电费都少。
: 更好的办法是,去ebay 搜索 “aws credit",可以买到30块钱买到$100的credit,更省
: 了。

avatar
g*r
52
要是一直开着肯定比VPS贵,毕竟人家帮你管理了很多东西。要是只是偶尔需要几十台
机器来算下东西,那绝对aws省钱

【在 n******t 的大作中提到】
: 省钱???你搞笑吧。
avatar
z*3
53
那不对吧,如果像netflix那样,机器能不天天开着么?

【在 g****r 的大作中提到】
: 要是一直开着肯定比VPS贵,毕竟人家帮你管理了很多东西。要是只是偶尔需要几十台
: 机器来算下东西,那绝对aws省钱

avatar
g*g
54
服务是都开着,结点数目是根据负载动态调整的。

【在 z*******3 的大作中提到】
: 那不对吧,如果像netflix那样,机器能不天天开着么?
avatar
s*o
55
before thinking about how to host your services, i would try very hard to
not require user to wait for several seconds on client side. is there any
way to trade storage for performance?

【在 l*******s 的大作中提到】
: 没有勇气。
: 不管啥语言 就算是c实现的ML模型 在load进model文件时 至少要几秒 更不用说js了
: 这个时候 客户手机基本就停止响应了

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。