1
namco1992 2016-10-01 17:36:08 +08:00
zset ,以内容为 key ,时间戳为 score ,效率还是 ok 的。
|
2
julyclyde 2016-10-01 18:54:17 +08:00
sorted set 在几十万长度的时候就基本卡死了
请慎重 |
5
namco1992 2016-10-02 00:01:41 +08:00
@julyclyde 我还真的没经历过这么大的数据量...但是关注的 feed 能到几十万这个量级的话,的确也超出了我现在能预见的范围了,我现在能想到的就是到了一定长度就拆,反正肯定会是分段加载,真有几十万的推送就拆几个 history sets 出来吧
|
6
cjyang1128 2016-10-02 10:20:35 +08:00
可以采用 HBase 来存储 feed , HBase 天生水平可扩展, key 自动按照字典序排序, lz 可以参考一下,成本比内存数据库小多了
|
7
chenxx OP 需要在数据库也加一个打分字段吗?
|