Redian新闻
>
一般来说多大的数据量可以称为海量数据呢?
avatar
一般来说多大的数据量可以称为海量数据呢?# Java - 爪哇娇娃
p*2
1
roughly来说
avatar
e*t
2
要我说,一台机器的memory handle不了就算了。现在的servers, 大概都有个384GB的内
存吧。

【在 p*****2 的大作中提到】
: roughly来说
avatar
c*e
3
真海量,至少200个机器的cluster处理才能算。一般来说,有个1T你要说海量也行吧。
average hadoop job处理不到10G的数据。 计算比数据更影响scalablity, 100T的数据
做个COUNT也远远比不上1T JOIN一把。
avatar
p*2
4

大牛现在还在M吗?感觉你对外边的技术也比较熟呀。

【在 c****e 的大作中提到】
: 真海量,至少200个机器的cluster处理才能算。一般来说,有个1T你要说海量也行吧。
: average hadoop job处理不到10G的数据。 计算比数据更影响scalablity, 100T的数据
: 做个COUNT也远远比不上1T JOIN一把。

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。