数据库:PostgreSQL 10
假设有 1000w 个用户,且用户还会增长
有 10w 个文章,且文章也会不停增长,但文章增加较慢
怎么设计数据库,来存储,每个用户收藏的文章呢
我目前的方案是, 新建了一个中间表 user_article
字段有:
id // 自增 id
user_id //用户 id
article_id // 已收藏文章 id
但是这样的话, 随着时间的推移,这个中间表 user_article 就会有 几百亿 甚至更多的记录
另外一个方案,是借助 PostgreSQL 10 的 json 字段功能,重新设计中间表 user_article
字段有 :
id // 自增 id
user_id //存用户 id
article_json // 该用户收藏的所有文章的 id 集合,用 json array 表示
但是这样的话,article_json 里面的 array 长度,可能会有 10w 那么大,当然实际情况中,几乎没有用户会收藏所有文章
想问问大家, 该如何设计呢, 对于实时性要求不高, 延迟个 1 秒都是可以接受的
1
leonme 2021-03-06 22:45:06 +08:00 via iPhone 1
1. 现实中一个用户不会收藏那么多文章 2. 即使用户太多,表太大,可以分表(甚至分库),根据 uid hash 映射一下 3. 延迟这东西直接上缓存,影响不大
|
3
nl101531 2021-03-07 08:33:36 +08:00 via iPhone 1
第一个方案,标准标准解决方式
|
4
Cyron 2021-03-07 09:44:24 +08:00 via iPhone 1
方案 1
|
5
luckyrayyy 2021-03-07 10:48:35 +08:00 1
方案一,上缓存。建议了解下微博的关注数据,比这个量级大多了
|
6
mejee 2021-03-07 12:54:52 +08:00 via iPhone 1
方案一,到变化一下。表名字叫关系表,有个字段是关系类型。这种一般后来还会有点赞等关系,可以复用
|
7
lraining 2021-03-07 12:56:15 +08:00 via Android 1
之前做的电商应用收藏功能也是采用方案一
|
9
ch2 2021-03-10 21:32:10 +08:00
方案一是标准的办法,再大的量也能保存下来,大不了用 redis 缓存,轻松上亿条关系都能保存在里面
|