Redian新闻
>
在校生应该怎么学些 hadoop/spark 的内容
avatar
在校生应该怎么学些 hadoop/spark 的内容# JobHunting - 待字闺中
W*y
1
在校cs phd第二年,想学些 hadoop/spark/graphlab这种large scale的东西。平时做
的都是单个机器上可以全部读入的小dataset, 最多就几个g的东西。没有机会接触这些
large scale的framework。系里的cluster好像也没有装这些东西。有没有能推荐些公
开课或者公开资源,可以在离开学校前自己学一下的?
avatar
j*l
2
同问。很多job post都要求熟悉hadoop,面试时候也会问到scalibility的问题,感觉
没有一个清晰的思路。

【在 W*********y 的大作中提到】
: 在校cs phd第二年,想学些 hadoop/spark/graphlab这种large scale的东西。平时做
: 的都是单个机器上可以全部读入的小dataset, 最多就几个g的东西。没有机会接触这些
: large scale的framework。系里的cluster好像也没有装这些东西。有没有能推荐些公
: 开课或者公开资源,可以在离开学校前自己学一下的?

avatar
f*x
3

之前板上一大牛说,随意搞3台linux就行
帖子找不到了

【在 W*********y 的大作中提到】
: 在校cs phd第二年,想学些 hadoop/spark/graphlab这种large scale的东西。平时做
: 的都是单个机器上可以全部读入的小dataset, 最多就几个g的东西。没有机会接触这些
: large scale的framework。系里的cluster好像也没有装这些东西。有没有能推荐些公
: 开课或者公开资源,可以在离开学校前自己学一下的?

avatar
j*y
5
我决的实际研究不是搞这个或是实习不搞这个,很难能学到啥实际的东西`

【在 W*********y 的大作中提到】
: 在校cs phd第二年,想学些 hadoop/spark/graphlab这种large scale的东西。平时做
: 的都是单个机器上可以全部读入的小dataset, 最多就几个g的东西。没有机会接触这些
: large scale的framework。系里的cluster好像也没有装这些东西。有没有能推荐些公
: 开课或者公开资源,可以在离开学校前自己学一下的?

avatar
d*8
6
一台机器就好了。。
装个VM,里面同时launch几个虚拟机
建议先用cloudera的vm试试手,他家有配好的hadoop。。
等编程啥的都熟悉了,再慢慢折腾好了
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。