Redian新闻
>
买For Closure得房子可以贷款吗?
avatar
买For Closure得房子可以贷款吗?# Living
l*n
1
最近在学。觉得要替代Hadoop还是很难啊。
数据没有办法全部load到memory里面怎么办。。。最后还是变成了拼机器。。。
avatar
T*E
2
不知道还有没有啊?
avatar
W*n
3
看到一个For Closure得房子还不错,不知道银行能不能一个月内批贷款?因为一个月
内要close.
avatar
l*4
4
分布式的精髓就是把问题转化为堆机器就能解决啊

【在 l*****n 的大作中提到】
: 最近在学。觉得要替代Hadoop还是很难啊。
: 数据没有办法全部load到memory里面怎么办。。。最后还是变成了拼机器。。。

avatar
T*s
5
我也期望有
avatar
u*q
6
Cash only.
Unmarked $20 bills.
avatar
x*i
7
确切的说是 拼内存.
avatar
k*n
8
到时候就先卖一点吧
avatar
w*u
9
能。。
包子。。。
avatar
y*a
10
能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
avatar
T*E
11
盘尾买了call?

【在 T*********s 的大作中提到】
: 我也期望有
avatar
p*p
12
能。。
包子。。。
avatar
B*g
13
据说内存计算快100倍,硬盘计算快10倍

【在 y**********a 的大作中提到】
: 能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
avatar
x*o
14
希望SP能跌到1000点
avatar
s*a
15
能,但是比较麻烦,AUCTION的大多数不能贷款
avatar
l*n
16
Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
恩,刚开始学两天,这是我得理解。
写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
Lambda表达式都是现学。。不容易啊。。。

【在 y**********a 的大作中提到】
: 能不能简明扼要地说说为啥 Spark 会比 MapReduce(Yarn) 好。
avatar
T*E
17
如果能希望的话,我希望能跌到800点

【在 x*******o 的大作中提到】
: 希望SP能跌到1000点
avatar
u*q
18
熊。。
佨子。。。
avatar
j*c
19
好像也支持Python和scala

io

【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。

avatar
p*i
20
yes, it is coming
avatar
W*n
21
为什么?房子看起来不错,是appraisal时候很麻烦?

【在 s****a 的大作中提到】
: 能,但是比较麻烦,AUCTION的大多数不能贷款
avatar
l*n
22
是的,Java,Python 或者 Scala都可以。 不过我不会Python,也不会Scala。。。。

【在 j******c 的大作中提到】
: 好像也支持Python和scala
:
: io

avatar
i*f
23
Should have one after so many losses

【在 T*****E 的大作中提到】
: 不知道还有没有啊?
avatar
s*a
24
因为LENDER会没完没了的REVIEW,一个月CLOSE的可能不大。
你搞个抵押贷款的东西给我,那我还不要没完没了的看仔细了,再给你贷款,
万一被火烧过,水泡过,管道被水泥给堵了,你再FORECLOSE,银行不
赔死了。

【在 W*******n 的大作中提到】
: 为什么?房子看起来不错,是appraisal时候很麻烦?
avatar
w*r
25
我啥都不会,你们是牛人
avatar
p*p
26
不见得
我的房子贷款,appraisal都没做

【在 s****a 的大作中提到】
: 因为LENDER会没完没了的REVIEW,一个月CLOSE的可能不大。
: 你搞个抵押贷款的东西给我,那我还不要没完没了的看仔细了,再给你贷款,
: 万一被火烧过,水泡过,管道被水泥给堵了,你再FORECLOSE,银行不
: 赔死了。

avatar
n*1
27
感觉在ml应用会比mapreduce好 例如svm 因为单一数据小 不适合hadoop的64Mb chunk
avatar
u*q
28
BSO LTV ratio低。
排。

【在 p*****p 的大作中提到】
: 不见得
: 我的房子贷款,appraisal都没做

avatar
p*2
29

io
上scala吧。

【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。

avatar
s*a
30
同一家银行左右手互搏?

【在 p*****p 的大作中提到】
: 不见得
: 我的房子贷款,appraisal都没做

avatar
z*e
31
展望未来嘛
将来内存越来越大是必然的
实在没办法,spark也支持mapreduce那种方式

【在 l*****n 的大作中提到】
: 最近在学。觉得要替代Hadoop还是很难啊。
: 数据没有办法全部load到memory里面怎么办。。。最后还是变成了拼机器。。。

avatar
p*p
32
不记得了
反正我也不懂
贷款经纪说,他们有个promotion,不作apprasial, 省了交apprasial fee
我忽忽悠悠就信了

【在 s****a 的大作中提到】
: 同一家银行左右手互搏?
avatar
C*r
33
O'Reilly 有个报表,做数据的人越来越扎堆Scala了。

【在 p*****2 的大作中提到】
:
: io
: 上scala吧。

avatar
s*a
34
便宜你了,搞不好是FANNIE MAE内部处理了,现在没那么多好事了

【在 p*****p 的大作中提到】
: 不记得了
: 反正我也不懂
: 贷款经纪说,他们有个promotion,不作apprasial, 省了交apprasial fee
: 我忽忽悠悠就信了

avatar
s*6
35
没有用过hadoop,用的python版的spark,用起来很爽。。
avatar
y*n
36

房子只要状态不好,需要装修才能入住的话,工程没完就不给贷款。

【在 W*******n 的大作中提到】
: 为什么?房子看起来不错,是appraisal时候很麻烦?
avatar
p*2
37
上scala吧

【在 s******6 的大作中提到】
: 没有用过hadoop,用的python版的spark,用起来很爽。。
avatar
b*h
38
换个角度看,forclosure的房子质量还有保障,不会被哪个中介,inspector啥的忽悠
忽悠就买着了。对吗?

【在 s****a 的大作中提到】
: 因为LENDER会没完没了的REVIEW,一个月CLOSE的可能不大。
: 你搞个抵押贷款的东西给我,那我还不要没完没了的看仔细了,再给你贷款,
: 万一被火烧过,水泡过,管道被水泥给堵了,你再FORECLOSE,银行不
: 赔死了。

avatar
p*2
39
对 clojure也不错

【在 C**********r 的大作中提到】
: O'Reilly 有个报表,做数据的人越来越扎堆Scala了。
avatar
s*a
40
有便宜去年就被人抢去了,今年还FORECLOSED不是有问题的,
就是价钱太贵不怎么好的DEAL,除非你是CLEVELAND啥的,
反正我是没看到有什么好的FORECLOSED DEAL

【在 b******h 的大作中提到】
: 换个角度看,forclosure的房子质量还有保障,不会被哪个中介,inspector啥的忽悠
: 忽悠就买着了。对吗?

avatar
z*e
41
大同小异了
scala跟java共荣的,不分彼此,类库工具都是共享的
maven这些都是java monkeys常用的工具
跟spring,eclipse这些一样
你用java也好,scala也罢,最后都会接触这些东西
不过现在用gradle了,maven比较繁琐

io

【在 l*****n 的大作中提到】
: Spark提供了一系列的api,可以很容易的让你在做MapReduce的时候把一些数据存储到
: 内存里面, 这样下一次操作就直接调取内存里面的data就可以了。这样避免了disk io
: ,省了很多时间,只要内存足够大,速度上比Hadoop可以快很多很多倍。
: 举个最简单的例子吧,ML里面做K-means的时候,如果是传统Hadoop,每更新一次
: cluster centers就要过一遍数据。但是如果用Spark,直接用cache()函数,把RDD数据
: 存到内存里面就行。如果你的K-means要做100次才收敛,Hadoop要去硬盘读取一百次数
: 据,但是Spark直接用内存里面的数据,这样就可以比Hadoop快一百倍。
: 恩,刚开始学两天,这是我得理解。
: 写Spark Java程序也不是很容易啊,完全不知道什么是Maven, Java 8也不熟, 什么
: Lambda表达式都是现学。。不容易啊。。。

avatar
L*P
42
去年看到一个房子60万short sale
今天突然发现,最后是11月底被foreclosed 拍卖了61万
几年4月又卖了,83万
短短半年毛利赚了22万,有33%盈利啊

【在 s****a 的大作中提到】
: 有便宜去年就被人抢去了,今年还FORECLOSED不是有问题的,
: 就是价钱太贵不怎么好的DEAL,除非你是CLEVELAND啥的,
: 反正我是没看到有什么好的FORECLOSED DEAL

avatar
a*s
43
Hadoop 已经变成一个平台了,mapreduce也终将被DAG processing代替,这个DAG
processing就是spark或是TEZ。如果只是上层application开发,不涉及系统开发,
hadoop了解一下就是了。因为现在对于application接口已经越来越人性和传统(
support SQL)。
avatar
N*D
44
FNMA 不做coop 应该是lender放在自己的book里 要求就松些

★ 发自iPhone App: ChineseWeb 7.8

【在 s****a 的大作中提到】
: 便宜你了,搞不好是FANNIE MAE内部处理了,现在没那么多好事了
avatar
W*n
45
可惜自己没钱啊,轻松半年赚了22万?羡慕嫉妒。

【在 L**P 的大作中提到】
: 去年看到一个房子60万short sale
: 今天突然发现,最后是11月底被foreclosed 拍卖了61万
: 几年4月又卖了,83万
: 短短半年毛利赚了22万,有33%盈利啊

avatar
p*y
46
foreclosure的房子估计没时间给LZ完成贷款流程,一般cash deal的多。
avatar
o*p
47
可以,看屋况。
30 天内,各方配合完全可能。

【在 p******y 的大作中提到】
: foreclosure的房子估计没时间给LZ完成贷款流程,一般cash deal的多。
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。