T*E
2 楼
不知道还有没有啊?
W*n
3 楼
看到一个For Closure得房子还不错,不知道银行能不能一个月内批贷款?因为一个月
内要close.
内要close.
T*s
5 楼
我也期望有
u*q
6 楼
Cash only.
Unmarked $20 bills.
Unmarked $20 bills.
x*i
7 楼
确切的说是 拼内存.
k*n
8 楼
到时候就先卖一点吧
w*u
9 楼
能。。
包子。。。
包子。。。
y*a
10 楼
能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
p*p
12 楼
能。。
包子。。。
包子。。。
x*o
14 楼
希望SP能跌到1000点
s*a
15 楼
能,但是比较麻烦,AUCTION的大多数不能贷款
l*n
16 楼
Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
恩,刚开始学两天,这是我得理解。
写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
Lambda表达式都是现学。。不容易啊。。。
【在 y**********a 的大作中提到】
: 能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
恩,刚开始学两天,这是我得理解。
写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
Lambda表达式都是现学。。不容易啊。。。
【在 y**********a 的大作中提到】
: 能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
u*q
18 楼
熊。。
佨子。。。
佨子。。。
j*c
19 楼
好像也支持Python和scala
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
p*i
20 楼
yes, it is coming
w*r
25 楼
我啥都不会,你们是牛人
n*1
27 楼
感觉在ml应用会比mapreduce好 例如svm 因为单一数据小 不适合hadoop的64Mb chunk
p*2
29 楼
io
上scala吧。
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
s*6
35 楼
没有用过hadoop,用的python版的spark,用起来很爽。。
z*e
41 楼
大同小异了
scala跟java共荣的,不分彼此,类库工具都是共享的
maven这些都是java monkeys常用的工具
跟spring,eclipse这些一样
你用java也好,scala也罢,最后都会接触这些东西
不过现在用gradle了,maven比较繁琐
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
scala跟java共荣的,不分彼此,类库工具都是共享的
maven这些都是java monkeys常用的工具
跟spring,eclipse这些一样
你用java也好,scala也罢,最后都会接触这些东西
不过现在用gradle了,maven比较繁琐
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
a*s
43 楼
Hadoop 已经变成一个平台了,mapreduce也终将被DAG processing代替,这个DAG
processing就是spark或是TEZ。如果只是上层application开发,不涉及系统开发,
hadoop了解一下就是了。因为现在对于application接口已经越来越人性和传统(
support SQL)。
processing就是spark或是TEZ。如果只是上层application开发,不涉及系统开发,
hadoop了解一下就是了。因为现在对于application接口已经越来越人性和传统(
support SQL)。
p*y
46 楼
foreclosure的房子估计没时间给LZ完成贷款流程,一般cash deal的多。
相关阅读
就换个ENTRY DOOR怎么找师傅换?二选一,请帮忙Radon report 出来了BESTBUY不给装GAS DRYER VELVE自己安装地板可行吗?大家都贷款多少年啊?感觉15年的最合适下室有时候会有轻微的煤气味道空调梯形房顶能上crown molding吗?请推荐旧金山湾区装实木地板的师傅预感小明会成为中国大陆的李安装crown moulding 连载 ( 五) 切割拐角连接,最重要的步骤求解:空调中午不制冷,但早晨傍晚工作一切正常。新家的烦恼!!!终于开始讨论父亲节了。神器三代收到了,但是我这房子怎么交税兄弟们, 推荐一款计算机防病毒软件。最近rate为什么在涨?还会下去吗?二楼如果也木地板以后还好卖吗?