T*E
2 楼
不知道还有没有啊?
W*n
3 楼
看到一个For Closure得房子还不错,不知道银行能不能一个月内批贷款?因为一个月
内要close.
内要close.
T*s
5 楼
我也期望有
u*q
6 楼
Cash only.
Unmarked $20 bills.
Unmarked $20 bills.
x*i
7 楼
确切的说是 拼内存.
k*n
8 楼
到时候就先卖一点吧
w*u
9 楼
能。。
包子。。。
包子。。。
y*a
10 楼
能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
p*p
12 楼
能。。
包子。。。
包子。。。
x*o
14 楼
希望SP能跌到1000点
s*a
15 楼
能,但是比较麻烦,AUCTION的大多数不能贷款
l*n
16 楼
Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
恩,刚开始学两天,这是我得理解。
写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
Lambda表达式都是现学。。不容易啊。。。
【在 y**********a 的大作中提到】
: 能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
恩,刚开始学两天,这是我得理解。
写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
Lambda表达式都是现学。。不容易啊。。。
【在 y**********a 的大作中提到】
: 能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
u*q
18 楼
熊。。
佨子。。。
佨子。。。
j*c
19 楼
好像也支持Python和scala
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
p*i
20 楼
yes, it is coming
w*r
25 楼
我啥都不会,你们是牛人
n*1
27 楼
感觉在ml应用会比mapreduce好 例如svm 因为单一数据小 不适合hadoop的64Mb chunk
p*2
29 楼
io
上scala吧。
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
s*6
35 楼
没有用过hadoop,用的python版的spark,用起来很爽。。
z*e
41 楼
大同小异了
scala跟java共荣的,不分彼此,类库工具都是共享的
maven这些都是java monkeys常用的工具
跟spring,eclipse这些一样
你用java也好,scala也罢,最后都会接触这些东西
不过现在用gradle了,maven比较繁琐
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
scala跟java共荣的,不分彼此,类库工具都是共享的
maven这些都是java monkeys常用的工具
跟spring,eclipse这些一样
你用java也好,scala也罢,最后都会接触这些东西
不过现在用gradle了,maven比较繁琐
io
【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。
a*s
43 楼
Hadoop 已经变成一个平台了,mapreduce也终将被DAG processing代替,这个DAG
processing就是spark或是TEZ。如果只是上层application开发,不涉及系统开发,
hadoop了解一下就是了。因为现在对于application接口已经越来越人性和传统(
support SQL)。
processing就是spark或是TEZ。如果只是上层application开发,不涉及系统开发,
hadoop了解一下就是了。因为现在对于application接口已经越来越人性和传统(
support SQL)。
p*y
46 楼
foreclosure的房子估计没时间给LZ完成贷款流程,一般cash deal的多。
相关阅读
Inspection以及利率的问题买房的rebate是找buyer agent要吗?客厅装修求建议请问在哪里买活性炭给新房新家具去味。谁家的range出现过这种问题??新房,邮局系统中的地址有typo怎么办?realtor对律师的说法湿度怎么上不去,是加湿器功率不够么?同样学区,2006年新房1100sqt vs. 1980年1400sqt 选择哪个比较好点?非公民没有绿卡,买房后住在里面,算不算homestead ???大家怎么确定fence line?首次购房,请推荐房地产经纪人和贷款机构这个房子对我是不是太贵了求助!Contract signed,但是不能close!家里的这扇门声音太响了。。。。。首次买房,诸多问题请教各位!买snowblower的上呀!6HP, 24", 2 stage, $271 after BCBDP还没存够,rate就又涨了新手买房, 几个问题请教提醒最近买房搬家的LOWES 10% OFF COUPON