Redian新闻
>
我的实测结果,纯计算每秒50M次interlocked.increment
avatar
我的实测结果,纯计算每秒50M次interlocked.increment# Programming - 葵花宝典
p*b
1
看电视、打游戏、听音乐、唱k都可以
价钱1000内吧,实在是好东西2k也行
avatar
w*1
2
1、特殊姿势:尽管患者全身肌肉均可受累,肌张力增高,但静止时屈肌张力较伸肌高
,故病人出现特殊姿势:头前倾、躯干略屈、上臂内收、肘关节弯曲、腕略伸、指掌关
节弯曲而指间关节伸直,拇指对掌,髋及膝关节轻度弯曲。
2、运动迟缓:在帕金森的早期症状中,由于上臂肌肉和手指肌的强直,病人的上肢往
往不能作精细的动作,如解系鞋带、扣纽扣等动作变得比以前缓慢许多,或者根本不能
顺利完成。写字也逐渐变得困难,笔迹弯曲,越写越小,这在医学上称为“小写症”。
面部肌肉运动减少,病人很少眨眼睛,表情呆板,好象戴了一副面具似的。行走时起步
困难,一旦开步,身体前倾,重心前移,步伐小而越走越快,不能及时停步,即 “慌
张步态”。
3、静止性震颤:震颤往往是帕金森的早期症状,通常从某一侧上肢远端开始,以拇指
、食指及中指为主,表现为手指象在搓丸子或数钞票一样的运动。然后逐渐扩展到同侧
下肢和对侧肢体,晚期可波及下颌、唇、舌和头部。在发病早期,患者并不太在意震颤
,往往是手指或肢体处于某一特殊体位的时候出现,当变换一下姿势时消失。以后发展
为仅于肢体静止时出现。
avatar
l*g
3
小弟今年暑假拿的J1签证到美国来交流了一下,明年想过来读Phd。
J1上有个two year rule does apply,所以读完书就得直接回国。但小弟想读完书在美
国先工作1~2年再说,所以想waive
掉这个two year rule。
不知各位前辈知道改这样waive这个two year rule 啊
小弟在这先谢各位了~~
avatar
w*i
4
好久没有买币了,又有点手痒。看到93年太极图1/10,后来查了一下,是不限量发
行的。这种材料币用金价+$20买是不是很吃亏。另外2000年小盎司(1/10,1/20非上币
版)是不是也属于这种材料币的范围?知识不够还是很痛苦的,看到了东西又不敢下手
,应该多到版上学习。
avatar
n*x
5
按照老魏的算法,详见:
http://www.mitbbs.com/article_t0/Programming/31312727.html
我做了如下测试:
- 纯计算.
- 12 core xeon
- 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
测了12,24,50,100,结果都差不多,没提高多少)
- one big array: long[20000]
- every thread handles 50,000 interlocked.increment (get random item from
the array and do increment)
- total number of interlocked.increment = 1千万 (10M)
average time spent: 0.2 second.
也就是每秒50M.
avatar
g*n
7
要看你是因为喜欢买来收藏的,还是买来倒手赚钱的。
avatar
n*t
8
差不多,如果考虑 network/disk io 的话,5m/s 不是狠可怕

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

avatar
F*r
9
干嘛要搞在天花板里呢?
我有两套天花板和墙壁里的音响,买房带的,总体上不喜欢。
比如电影里有个赛车绕着跑,四周马达轰鸣的场景,因为声音都从天花板上传下来,感
觉是一群直升飞机在天上绕。

【在 p*****b 的大作中提到】
: 看电视、打游戏、听音乐、唱k都可以
: 价钱1000内吧,实在是好东西2k也行

avatar
h*w
10
你那个00金猫如果是原封的,我按照材料费加70%以上收购。
avatar
b*s
11
不错

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

avatar
j*p
13
93年1/10 太极如果是原封的,可以2倍材料价格给我。
avatar
b*s
14
主要问题还是在io上

【在 n*****t 的大作中提到】
: 差不多,如果考虑 network/disk io 的话,5m/s 不是狠可怕
avatar
p*b
15
天花板里好啊,回家就有天籁之音,汽车都升级成飞机

【在 F*****r 的大作中提到】
: 干嘛要搞在天花板里呢?
: 我有两套天花板和墙壁里的音响,买房带的,总体上不喜欢。
: 比如电影里有个赛车绕着跑,四周马达轰鸣的场景,因为声音都从天花板上传下来,感
: 觉是一群直升飞机在天上绕。

avatar
M*9
16
楼主赚翻了
avatar
n*x
17
老魏有超级网卡,io号称不是问题。。 呵呵。硬件我不懂。

【在 b*******s 的大作中提到】
: 主要问题还是在io上
avatar
a*s
18
人也都进化成蝙蝠在房檐下头挂着。

【在 p*****b 的大作中提到】
: 天花板里好啊,回家就有天籁之音,汽车都升级成飞机
avatar
w*i
19
都不是原封的,不过看上去还好。自己收着玩的,主要是长期不买的话,知识和兴趣都
在退步。另外这个1/10太极图网上说很稀少,但有人说其实很多(因为当时说不限量的
),到底是怎么回事?
avatar
n*t
20
我预估的是 1M/s 处理能力,比较保守,不过也能满足应用需求了

【在 b*******s 的大作中提到】
: 主要问题还是在io上
avatar
r*3
21
00的1/20更划算?按金价比例收的话

【在 h*****w 的大作中提到】
: 你那个00金猫如果是原封的,我按照材料费加70%以上收购。
avatar
b*s
22
我估计half million应该问题不大,实际环境

【在 n*****t 的大作中提到】
: 我预估的是 1M/s 处理能力,比较保守,不过也能满足应用需求了
avatar
a*u
23
哪裡有賣啊?LZ 留幾個給我們。

【在 w***i 的大作中提到】
: 都不是原封的,不过看上去还好。自己收着玩的,主要是长期不买的话,知识和兴趣都
: 在退步。另外这个1/10太极图网上说很稀少,但有人说其实很多(因为当时说不限量的
: ),到底是怎么回事?

avatar
q*c
24
这只是对内操作, 还要把这些结果以对外network IO 的方式传出去。

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

avatar
m*u
25
00的1/20 原封我可以$300要啊。。。

【在 r*******3 的大作中提到】
: 00的1/20更划算?按金价比例收的话
avatar
n*x
26
老魏有超级网卡,io号称不是问题。。 呵呵。硬件我不懂。

【在 q*c 的大作中提到】
: 这只是对内操作, 还要把这些结果以对外network IO 的方式传出去。
avatar
a*u
27
熊貓炒得火熱啊。
avatar
q*c
28
而且你不能单纯 increment. 每次increment 后还要 compare, 超过了上限要
rollback. 这些都只算一个 transaction.
而且因为有人不断退票, 所以每次都得 compare.

【在 q*c 的大作中提到】
: 这只是对内操作, 还要把这些结果以对外network IO 的方式传出去。
avatar
f*r
29
gongxi

【在 w***i 的大作中提到】
: 都不是原封的,不过看上去还好。自己收着玩的,主要是长期不买的话,知识和兴趣都
: 在退步。另外这个1/10太极图网上说很稀少,但有人说其实很多(因为当时说不限量的
: ),到底是怎么回事?

avatar
b*s
30
我觉得老魏再做个io的试验
这事就结了吧
不懂的人这辈子都搞不懂的

【在 n**x 的大作中提到】
: 老魏有超级网卡,io号称不是问题。。 呵呵。硬件我不懂。
avatar
a*u
31
誰有?

【在 j****p 的大作中提到】
: 93年1/10 太极如果是原封的,可以2倍材料价格给我。
avatar
n*t
32
Network 其实还好,据说老魏的网卡毫无压力,基本就是几个 clock 的 io weite
disk io 会开销大点,当然可以考虑干脆不写了,真当鸡了就从前端按 log 算

【在 q*c 的大作中提到】
: 这只是对内操作, 还要把这些结果以对外network IO 的方式传出去。
avatar
b*s
33
要考虑全部当掉,所以总得有人写disk

【在 n*****t 的大作中提到】
: Network 其实还好,据说老魏的网卡毫无压力,基本就是几个 clock 的 io weite
: disk io 会开销大点,当然可以考虑干脆不写了,真当鸡了就从前端按 log 算

avatar
q*c
34
问题是超级网卡也要 CPU 啊。难道某种网卡根本不需要 CPU 负载就把数据传出传入
500 万次每秒?
再把 compare, rollback 等加上, 50 万次也许就成了 10 万次了。

【在 n**x 的大作中提到】
: 老魏有超级网卡,io号称不是问题。。 呵呵。硬件我不懂。
avatar
n*t
35
前端实际出票的写,抢到就是赚到,保证不冲突,核心节点就不用管了

【在 b*******s 的大作中提到】
: 要考虑全部当掉,所以总得有人写disk
avatar
b*s
36
等老魏做io实验吧
反正我没有超级网卡
原子操作的我迟一点在老机器上再做一遍,摸个下限

【在 q*c 的大作中提到】
: 问题是超级网卡也要 CPU 啊。难道某种网卡根本不需要 CPU 负载就把数据传出传入
: 500 万次每秒?
: 再把 compare, rollback 等加上, 50 万次也许就成了 10 万次了。

avatar
n*t
37
10 万次也够了,再上老魏的牛叉鸡,性能还能翻 2-3 番

【在 q*c 的大作中提到】
: 问题是超级网卡也要 CPU 啊。难道某种网卡根本不需要 CPU 负载就把数据传出传入
: 500 万次每秒?
: 再把 compare, rollback 等加上, 50 万次也许就成了 10 万次了。

avatar
b*s
38
总共峰值也就20万请求,老魏单机够了

【在 n*****t 的大作中提到】
: 10 万次也够了,再上老魏的牛叉鸡,性能还能翻 2-3 番
avatar
S*A
39
靠,这道题的关键瓶颈就在 IO。
那个内存做 atomic 操作的那里有什么压力。
每次操作 IO 的时候网卡 driver 上面都有 lock。
而且还不止一个。一个系统的快慢是由最慢的环节
决定的。
5M tcp OPS,每个 TCP 需要三个包建立两个包
撤销。单机 5M TCP 是吊爆天的东西。让我们拭目
以待看看实测,没有实测我坚决不相信。
avatar
n*t
40
前端可以 combine requests,一个包 512B,包含 40 个 requests

【在 S*A 的大作中提到】
: 靠,这道题的关键瓶颈就在 IO。
: 那个内存做 atomic 操作的那里有什么压力。
: 每次操作 IO 的时候网卡 driver 上面都有 lock。
: 而且还不止一个。一个系统的快慢是由最慢的环节
: 决定的。
: 5M tcp OPS,每个 TCP 需要三个包建立两个包
: 撤销。单机 5M TCP 是吊爆天的东西。让我们拭目
: 以待看看实测,没有实测我坚决不相信。

avatar
b*s
41
内存原子操作的效率已经打了很多人的脸了

【在 S*A 的大作中提到】
: 靠,这道题的关键瓶颈就在 IO。
: 那个内存做 atomic 操作的那里有什么压力。
: 每次操作 IO 的时候网卡 driver 上面都有 lock。
: 而且还不止一个。一个系统的快慢是由最慢的环节
: 决定的。
: 5M tcp OPS,每个 TCP 需要三个包建立两个包
: 撤销。单机 5M TCP 是吊爆天的东西。让我们拭目
: 以待看看实测,没有实测我坚决不相信。

avatar
z*g
42
200threads 太多了,一个NIC一个,了不得一个core一个才行

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

avatar
T*i
43
他的这个大多消耗在context switching上。尤其是0.2m,分布及其不均匀。
所有我说他根本没做做过此类应用。
No offense。术业有专攻而已。非常感谢他花时间做实验。

【在 z****g 的大作中提到】
: 200threads 太多了,一个NIC一个,了不得一个core一个才行
avatar
S*A
44
那就不是 5M TCP OPS。
combine 就没有公平性。因为你 combine 就需要前端不是最快时间
把数据包发出去,而是等后面攒足够多了一起发。你攒的时候,别人
后发的 request 可以先到达牛B机器。

【在 n*****t 的大作中提到】
: 前端可以 combine requests,一个包 512B,包含 40 个 requests
avatar
n*t
45
前端和后端之间有中端,负责把 http request 转换成 TCP,捎带打包一下 requests
也没啥问题,对前端来说还是一样结果。再说,你真的那么在乎几个 us 的公平吗?

【在 S*A 的大作中提到】
: 那就不是 5M TCP OPS。
: combine 就没有公平性。因为你 combine 就需要前端不是最快时间
: 把数据包发出去,而是等后面攒足够多了一起发。你攒的时候,别人
: 后发的 request 可以先到达牛B机器。

avatar
S*A
46
我没由爬全部的楼,你的意思是是 50M 比预计
的要低很多吗?

【在 b*******s 的大作中提到】
: 内存原子操作的效率已经打了很多人的脸了
avatar
T*i
47
你连Throughput优化和latency优化都不知道,还是别说为好。
就算latency优化,单网卡可达20M IOPS。更何况我是双网卡。
不懂可以牵狗。难道非要有老师教才能学习么?

【在 S*A 的大作中提到】
: 那就不是 5M TCP OPS。
: combine 就没有公平性。因为你 combine 就需要前端不是最快时间
: 把数据包发出去,而是等后面攒足够多了一起发。你攒的时候,别人
: 后发的 request 可以先到达牛B机器。

avatar
S*A
48
请给出接口让好虫测一下你的 5M 吧,
Talk is cheap。

【在 T********i 的大作中提到】
: 你连Throughput优化和latency优化都不知道,还是别说为好。
: 就算latency优化,单网卡可达20M IOPS。更何况我是双网卡。
: 不懂可以牵狗。难道非要有老师教才能学习么?

avatar
n*x
49
测了12个thread,结果差不多还是大约0.2秒。说明我的机器性能还是不错滴。。呵呵。
context switch,几个register而已。。。

【在 T********i 的大作中提到】
: 他的这个大多消耗在context switching上。尤其是0.2m,分布及其不均匀。
: 所有我说他根本没做做过此类应用。
: No offense。术业有专攻而已。非常感谢他花时间做实验。

avatar
d*a
50
你这TCP/IP stack是特制的吧
搞了user-level TCP/IP, zero copy等技巧?

【在 T********i 的大作中提到】
: 你连Throughput优化和latency优化都不知道,还是别说为好。
: 就算latency优化,单网卡可达20M IOPS。更何况我是双网卡。
: 不懂可以牵狗。难道非要有老师教才能学习么?

avatar
T*i
51
Solarflare OpenOnLoad
Kernel by pass。

【在 d***a 的大作中提到】
: 你这TCP/IP stack是特制的吧
: 搞了user-level TCP/IP, zero copy等技巧?

avatar
b*s
52
有时还牵涉到cache write through和reload
尤其是跨进程,代价非常大

【在 n**x 的大作中提到】
: 测了12个thread,结果差不多还是大约0.2秒。说明我的机器性能还是不错滴。。呵呵。
: context switch,几个register而已。。。

avatar
T*i
53
你测6个试一试?
或许能至少加倍 :-)

【在 n**x 的大作中提到】
: 测了12个thread,结果差不多还是大约0.2秒。说明我的机器性能还是不错滴。。呵呵。
: context switch,几个register而已。。。

avatar
b*s
54
hoho,又学到一点

【在 T********i 的大作中提到】
: Solarflare OpenOnLoad
: Kernel by pass。

avatar
d*a
55
呵呵,我很久以前做过类似的项目,把linux kernel搞崩溃了N次。

【在 T********i 的大作中提到】
: Solarflare OpenOnLoad
: Kernel by pass。

avatar
S*A
56
context switch 可不是几个 register。
建议测一下和 core 数目一样多的 thread。

【在 n**x 的大作中提到】
: 测了12个thread,结果差不多还是大约0.2秒。说明我的机器性能还是不错滴。。呵呵。
: context switch,几个register而已。。。

avatar
h*c
57
tech tip ONLY
Linux card bond can combine multiple physical card, i used two cards bond
before, theoretically can be two+.
Real scenario: one card only send, the other one ceceives.
shown in ifconfig
avatar
n*x
58
12个core,12个thread,还是0.2秒. 看样子context switch的效率还是比较高的。我的
系统是windows server 2012 R2.

【在 S*A 的大作中提到】
: context switch 可不是几个 register。
: 建议测一下和 core 数目一样多的 thread。

avatar
T*i
59
你错了,有些core被系统占用,可能导致分配不均。
而且Windows Scheduler粒度过粗。
所以,建议用6个core。

【在 n**x 的大作中提到】
: 12个core,12个thread,还是0.2秒. 看样子context switch的效率还是比较高的。我的
: 系统是windows server 2012 R2.

avatar
h*c
60
tech tip ONLY I
Linux card bond can combine multiple physical card, i used two cards bond
before, theoretically can be two+.
Real scenario: one card only send, the other one ceceives.
shown in ifconfig
tech tip ONLY II
research on Linux volume in memory, I used it in my 8G desktop for my thesis
five years ago
avatar
h*c
61
The point of II is a home work.
I lao give the answer tomorrow.

thesis

【在 h**********c 的大作中提到】
: tech tip ONLY I
: Linux card bond can combine multiple physical card, i used two cards bond
: before, theoretically can be two+.
: Real scenario: one card only send, the other one ceceives.
: shown in ifconfig
: tech tip ONLY II
: research on Linux volume in memory, I used it in my 8G desktop for my thesis
: five years ago

avatar
b*s
62
赞,有启发

thesis

【在 h**********c 的大作中提到】
: tech tip ONLY I
: Linux card bond can combine multiple physical card, i used two cards bond
: before, theoretically can be two+.
: Real scenario: one card only send, the other one ceceives.
: shown in ifconfig
: tech tip ONLY II
: research on Linux volume in memory, I used it in my 8G desktop for my thesis
: five years ago

avatar
S*A
63
那个 20 M OPS 估计是 UDP 盲发吧,如果是那样,
有 context 来回那种会低些。就算是 20M OPS,
用 5M TCP 带建立连接已经不够了。所以我很好奇
老老实实 TCP 建立连接可以做到多少 M。
我看了一下那个 OpenOnLoad 的演讲, 还挺有意思的。
avatar
n*t
64
TCP连接为啥要断?

【在 S*A 的大作中提到】
: 那个 20 M OPS 估计是 UDP 盲发吧,如果是那样,
: 有 context 来回那种会低些。就算是 20M OPS,
: 用 5M TCP 带建立连接已经不够了。所以我很好奇
: 老老实实 TCP 建立连接可以做到多少 M。
: 我看了一下那个 OpenOnLoad 的演讲, 还挺有意思的。

avatar
i*o
65
在老魏的算法里,他做最后端,在他前面有无数个web front。所以他只要和每个web
front 搭一个persistent tcp就好了。

★ 发自iPhone App: ChineseWeb 8.6

【在 S*A 的大作中提到】
: 那个 20 M OPS 估计是 UDP 盲发吧,如果是那样,
: 有 context 来回那种会低些。就算是 20M OPS,
: 用 5M TCP 带建立连接已经不够了。所以我很好奇
: 老老实实 TCP 建立连接可以做到多少 M。
: 我看了一下那个 OpenOnLoad 的演讲, 还挺有意思的。

avatar
g*g
66
increment是不行的,你最少也要做InterlockedCompareExchange吧。
另外,网络来的请求,serialization, deserialization都是需要cpu的。

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

avatar
h*c
67
Somebody mentioned Gemfire like, so I don't have to Maiguanzi.
The point is if it is a volume in memory, then it can go NFS, GFS for
redundancy.
So the memory volume is not volatile, redundnacy saved in NFS, it can even
be hybrid (mechanic disks/volumes + main memory disks/volumes).

【在 h**********c 的大作中提到】
: The point of II is a home work.
: I lao give the answer tomorrow.
:
: thesis

avatar
g*g
68
The budget is 20K, you better don't go too fancy.

【在 h**********c 的大作中提到】
: Somebody mentioned Gemfire like, so I don't have to Maiguanzi.
: The point is if it is a volume in memory, then it can go NFS, GFS for
: redundancy.
: So the memory volume is not volatile, redundnacy saved in NFS, it can even
: be hybrid (mechanic disks/volumes + main memory disks/volumes).

avatar
h*c
69
200G ECC 1000d abt
in developing countries, can be less expansive.
Regards,

【在 g*****g 的大作中提到】
: The budget is 20K, you better don't go too fancy.
avatar
a*i
70
代码有没有?

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

avatar
n*x
71
就是起100个thread,每个队一个大数字做interlocked.increment。很简单。代码我正
在升级为增强版,看看能不能模拟真实情况。

【在 a****i 的大作中提到】
: 代码有没有?
avatar
a*i
72
你确定这个可以锁票?我有点糊涂了
比如说卖了济南到上海的(T[234], S2),南京到上海区段就也要锁一张(T[234], S6)
简单地 Interlocked.Decrement( T[X234,S2] ) 怕是不行吧?
不需要锁S3, S4, S5....?
联票可能更有问题

【在 n**x 的大作中提到】
: 就是起100个thread,每个队一个大数字做interlocked.increment。很简单。代码我正
: 在升级为增强版,看看能不能模拟真实情况。

avatar
g*g
73
我简单的测试用例给了。没有正确性不谈性能,常识。

【在 n**x 的大作中提到】
: 就是起100个thread,每个队一个大数字做interlocked.increment。很简单。代码我正
: 在升级为增强版,看看能不能模拟真实情况。

avatar
f*n
74
太尼玛牛逼了,这么个复杂的系统就被转进成内存锁 io 网卡之类的性能测试了。别整
虚的,代码挂出来看看!
avatar
z*e
75
老魏没有锁,千万记住,呀的就是一个计数器
用最简单的原子操作回避了锁的操作
我们都错了,多线程上来就教锁,老魏认为这是错误的
十个图零奖小意思

【在 f******n 的大作中提到】
: 太尼玛牛逼了,这么个复杂的系统就被转进成内存锁 io 网卡之类的性能测试了。别整
: 虚的,代码挂出来看看!

avatar
g*9
76
随便上个lockfree的算法,能提高一大截,这个结果太差,不make sense.

【在 n**x 的大作中提到】
: 按照老魏的算法,详见:
: http://www.mitbbs.com/article_t0/Programming/31312727.html
: 我做了如下测试:
: - 纯计算.
: - 12 core xeon
: - 200 concurrent threads(大家都说200个太浪费,我当然没坐过此类应用, 不过我
: 测了12,24,50,100,结果都差不多,没提高多少)
: - one big array: long[20000]
: - every thread handles 50,000 interlocked.increment (get random item from
: the array and do increment)

相关阅读
logo
联系我们隐私协议©2024 redian.news
Redian新闻
Redian.news刊载任何文章,不代表同意其说法或描述,仅为提供更多信息,也不构成任何建议。文章信息的合法性及真实性由其作者负责,与Redian.news及其运营公司无关。欢迎投稿,如发现稿件侵权,或作者不愿在本网发表文章,请版权拥有者通知本网处理。