Redian新闻
>
谁有lowes的printable的coupon?
avatar
谁有lowes的printable的coupon?# Living
e*t
1
Any ideas?
It was asked so many times by almost every company
avatar
c*t
2
我的H1-B延了几次,需要把所有的I-797 notice都提交吗?还是要最近一次
I-94我只保留现在的,我看到有人还把以前的也留底并提交了,请问需要这样做吗
谢谢
avatar
c*a
3
想去homedepot用,明天就要,来不及网上申请了。有谁能share一个不?
多谢
avatar
u*o
4
cache?
avatar
M*X
5
documents since the last entry only.
avatar
d*0
6
胖子找乒乓, 杂事找筷子。

【在 c*********a 的大作中提到】
: 想去homedepot用,明天就要,来不及网上申请了。有谁能share一个不?
: 多谢

avatar
c*n
7
网页里插段js?
avatar
q*a
8
Where did you see this line?

【在 M**X 的大作中提到】
: documents since the last entry only.
avatar
c*a
9
小声的问乒乓是哪个id呀?

【在 d**********0 的大作中提到】
: 胖子找乒乓, 杂事找筷子。
avatar
e*t
10
No. it's asking on the server side, how to answer this questions any time.

【在 c******n 的大作中提到】
: 网页里插段js?
avatar
b*m
11
我的律师要求我提供所有immigration history文件,不过我来的时间不长,只有一张
797B。

【在 M**X 的大作中提到】
: documents since the last entry only.
avatar
d*0
12
找糕妹带路。。。

【在 c*********a 的大作中提到】
: 小声的问乒乓是哪个id呀?
avatar
g*g
13
put the url and the counter in memcache or Cassandra, done.
Those 2 did the hashing and linear scaling for you. this is called real
world solution.

【在 e**t 的大作中提到】
: Any ideas?
: It was asked so many times by almost every company

avatar
M*X
14
From my lawyer, and my I-485 is pending without any REF received.

【在 q*********a 的大作中提到】
: Where did you see this line?
avatar
z*e
15
aop上一个interceptor生成log
把log放到cassandra里面去
最后用mapreduce找结果
这是大的具体到实现的想法
如果是纯粹内存中的结果的话
先实现拦截器
然后找个结构存放
随便你用什么,比如最简单的,用arraylist吧
然后启动一个额外的线程
对list里面的超时的予以删除
这里有并发冲突的问题,那么老样子,上java.util.concurrent包
解法很多,看对方期望的是什么
avatar
c*t
16
谢谢啊,恩,就是要听专业意见,呵呵

【在 M**X 的大作中提到】
: From my lawyer, and my I-485 is pending without any REF received.
avatar
r*s
17
这个是经典的stream processing问题。
Server把url扔到后端,后端有数个server或者process,最简单的方法就是hash url然
后决定按hashcode把url扔到那个server或者process (modulo就可以了),这个
process就把url累计count一下,然后把url:count这个pair 扔到后一级的process或者
server,后一级的server把url:count存到一个concurrent hashmap里。一个thread 大
概每10秒钟把这个map扫一遍,给出前10名。
这是很粗略的方法,讲究一些的可以加各种花里胡哨的东西上去。
知道twitter storm吗?就是干这个的。http://storm-project.net/ 阿里巴巴和淘宝都在用,估计那个主要开发者Xu Mingming也是淘宝的。 竞争对手是Apache S4,但是S4明显不是对手。
avatar
c*t
18
谢谢你提供的信息,你的485咋样了

【在 b***m 的大作中提到】
: 我的律师要求我提供所有immigration history文件,不过我来的时间不长,只有一张
: 797B。

avatar
A*H
19
你这些counter都是ignore time的
如果查询是dynamic time range的呢(top K urls in recent N mins)
storm也不是完美的,它本身design是允许有误差的,twiiter要发布的hummingbird就
是结合online (storm) &offline (hadoop),for accuracy

【在 r****s 的大作中提到】
: 这个是经典的stream processing问题。
: Server把url扔到后端,后端有数个server或者process,最简单的方法就是hash url然
: 后决定按hashcode把url扔到那个server或者process (modulo就可以了),这个
: process就把url累计count一下,然后把url:count这个pair 扔到后一级的process或者
: server,后一级的server把url:count存到一个concurrent hashmap里。一个thread 大
: 概每10秒钟把这个map扫一遍,给出前10名。
: 这是很粗略的方法,讲究一些的可以加各种花里胡哨的东西上去。
: 知道twitter storm吗?就是干这个的。http://storm-project.net/ 阿里巴巴和淘宝都在用,估计那个主要开发者Xu Mingming也是淘宝的。 竞争对手是Apache S4,但是S4明显不是对手。

avatar
b*m
20

还在pending,明天下午全家打指纹。我的485别的都好,就是FP来得慢,足足等了2个
半月,不知道是不是因为西雅图地区FP的人特别多。:(

【在 c*******t 的大作中提到】
: 谢谢你提供的信息,你的485咋样了
avatar
z*e
21
上次看swjtuer的回答
还有一个可能可以用的数据结构:priorityqueue
如果多线程,priorityblockingqueue
avatar
A*H
22
一般top k都会想到priority queue,要回答好这个问题,还是有很多细节要考虑
比如queue size维护多大,expired的node要remove掉,怎么remove又要保证
concurrency performance

【在 z****e 的大作中提到】
: 上次看swjtuer的回答
: 还有一个可能可以用的数据结构:priorityqueue
: 如果多线程,priorityblockingqueue

avatar
e*t
23
how to deal with time thing?
last 1 hr means it changes the time range whenver you query

【在 g*****g 的大作中提到】
: put the url and the counter in memcache or Cassandra, done.
: Those 2 did the hashing and linear scaling for you. this is called real
: world solution.

avatar
e*t
24
Assume the memory solution, do you keep all the items in memory?
For 24 hrs, that might be quite large

【在 z****e 的大作中提到】
: aop上一个interceptor生成log
: 把log放到cassandra里面去
: 最后用mapreduce找结果
: 这是大的具体到实现的想法
: 如果是纯粹内存中的结果的话
: 先实现拦截器
: 然后找个结构存放
: 随便你用什么,比如最简单的,用arraylist吧
: 然后启动一个额外的线程
: 对list里面的超时的予以删除

avatar
e*t
25
yeah. how to use it?

【在 A*H 的大作中提到】
: 一般top k都会想到priority queue,要回答好这个问题,还是有很多细节要考虑
: 比如queue size维护多大,expired的node要remove掉,怎么remove又要保证
: concurrency performance

avatar
r*s
26
omfg, 少侠,你就不能想想办法?
比如那个每10秒钟的thread,读完数据之后你就不能扔到Kafka里面按时间查询?或者随
便一个数据库Mongo之类的都可以。对不对?
sorting on-the-fly是一个very bad idea,注意为什么那个10秒的thread要把数据结构
抄一遍下来,就是因为如果你有几千个url,每秒有几千个点击进来(比如Amazon),你
不可以做logN的insertion,只能做constant time的hash.

【在 A*H 的大作中提到】
: 一般top k都会想到priority queue,要回答好这个问题,还是有很多细节要考虑
: 比如queue size维护多大,expired的node要remove掉,怎么remove又要保证
: concurrency performance

avatar
z*e
27
那就persist掉吧
太大的话,log留在内存里没有太多意义

【在 e**t 的大作中提到】
: Assume the memory solution, do you keep all the items in memory?
: For 24 hrs, that might be quite large

avatar
l*0
28
基本思路应该就是use hash to count and min heap with size k to get top k? 如
果想要考虑时间区间的话的话,可否使得value复杂一些(key 还是url本身),比如说
是一个结构,结构内有多个单元,例如可以每小时一个单元,一天24个单元,记录整点
时候的点击数。 感觉实际中,这种东西不可能做到很精确吧?不大可能说你任意选一
个时间,然后往前数1个小时,就能得到一个点击数。。。那样的话,需要log的东西太
多了。。。还有什么更好的办法?
avatar
j*t
29
关注此题。
avatar
f*b
30
M
avatar
t*h
31
这个体有没有比较偏算法的一些idea? 回帖都太偏SYStem了

【在 e**t 的大作中提到】
: Any ideas?
: It was asked so many times by almost every company

avatar
r*s
32
这道题你要整出个单机版的解法,我包你进不了下一轮。
给个链接,你们学习一下。
http://www.michael-noll.com/blog/2013/01/18/implementing-real-t

【在 t*********h 的大作中提到】
: 这个体有没有比较偏算法的一些idea? 回帖都太偏SYStem了
相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。