跳转至

2026-03-29 过程文档 #19 — 微博技术架构与推荐系统演进

关联报告: 2026-03-29_微博业务技术演进与政策驱动.md 调研时间: 2026-03-29 信源主力: InfoQ/QCon 演讲(A/B级)、CSDN/知乎/6aiq 技术文章(B/C级)


搜索过程

  • 搜索:微博 技术架构 演进 推荐系统 机器学习 QCon ArchSummit 2018 2020 2022
  • 搜索:微博 推荐系统 实时大模型 DeepRec 向量检索 双塔 DNN粗排 2022 2023
  • 搜索:Sina Weibo technical architecture evolution recommendation system engineering blog
  • Fetch:infoq.cn/article/q3aw2k5wcgi702lvojry — 微博推荐引擎架构蜕变 ✅
  • Fetch:6aiq.com/article/1682316273516 — 微博推荐实时大模型技术演进 ✅
  • Fetch:infoq.cn/article/xutw5wbtixpbdeyqiivn — 微博推荐算法与ML平台 ❌(仅获取导航,正文未提取)

发现与分析

早期架构(2009–2012)

信源: Quora/技术博客 [C级]

  • 初始技术栈:LAMP(Linux + Apache + MySQL + PHP)
  • 推送模式(push model),MyISAM 存储引擎
  • 核心挑战:海量 TCP 长连接(数千万级并发),实时消息推送

分析: 与 Pinterest 类似,微博也是从 LAMP 单机起步。但不同之处在于微博的核心挑战是实时消息推送(类 Twitter 的 timeline),而非 Pinterest 的内容发现。这个差异决定了两者后来技术演化的不同方向。


Java/C++ 重写期(2013–2016)

  • 后端从 PHP → Java(类似 Pinterest 2015 年的 Java 迁移)
  • Feed 流从 push 模型→ push-pull 混合(大 V 拉取,普通用户推送)
  • 自研消息中间件、缓存架构

推荐系统演化(2018–2023)

推荐引擎架构蜕变(2021,QCon 北京分享)

信源: InfoQ/QCon [A级] URL: https://www.infoq.cn/article/q3aw2k5wcgi702lvojry

改造前问题(严重): - 单台引擎运行几小时后即宕机/内存溢出/超时 - 可用性不足2个9(即 >1% 请求失败) - 代码膨胀至数十万行 - 物料规模和已读存储能力成为业务瓶颈

三阶段改造策略: 1. 工具稳定系统 2. 重写核心模块 3. 优化工具降低维护成本

关键改造: - 物料存储: 二级索引 + Bitmap 稀疏数据 + ConcurrentHashMap(数万级/秒更新) - 已读服务: 独立微服务化 + 可变长布隆过滤器(空间节省50%+) - 扩缩容: 动态降级 + QPS 自适应 + 快速流量发现

改造结果(3个月内): - 可用性:2个9以下 → 3个9以上(99.9%+) - 请求耗时 -25% - 启动速度 4x - 单机物料:500万–1000万(无额外资源)

分析: 2021年微博推荐引擎的可用性不足2个9——这在工业界是非常低的。作为对比,Pinterest 同期的 Scorpion 已经在做 GPU 化改造。这说明微博的推荐基础设施投入相对有限,更多资源可能分配在内容审核和政策合规上,而非推荐系统优化。


推荐模型演进路线

信源: 6aiq.com 技术文章(转自微博技术分享)[B级] URL: https://www.6aiq.com/article/1682316273516

模型演进路径:

FM 模型(基线)
  ↓ 解决大规模实时推荐
深度模型(DNN)
  ↓ 复杂结构,更好拟合
多任务学习(SNR架构)
  ↓ 7目标联合优化(点击/时长/互动/完播等)
多目标融合(静态参数 → RL动态调整 → 模型融合)

Weidl 在线学习平台: - 微博自研 ML 平台 - Bridge 模式:可调用不同深度学习框架的算子 - 支持 LR/FM(手写)+ TensorFlow + DeepRec - 模型从训练到线上更新:分钟级以下

粗排技术演进(关键分叉点 2022):

技术线 架构 优劣
双塔(Two-Tower) 向量内积检索 快但天花板低
DNN 粗排(2022起) 直接打分 效果好但工程压力大(特征筛选/网络剪枝/性能优化)

最终方案: 级联模型——双塔先做一层筛选,截断后交给 DNN 粗排。"相当于在粗排内部做了粗排和精排"。

DeepRec 框架迁移(2022年下半年):

环节 TF→DeepRec 收益
精排多任务模型 图计算耗时 -50%,整体 -20%,吞吐量 +30%
双塔/cold DNN 图计算耗时 -20%,整体 -10%,吞吐量 +20%

兴趣建模: Multi-DIN,序列长度 20→50,但发现"超长序列的价值没有那么大"——原因:社交媒体中用户兴趣衰减快,不同于电商的购买意图持续性。

多模态特征(冷启动): - 方案A:梯度冻结语义 embedding - 方案B:聚类ID集成(90%效果,更低复杂度,实际采用)

因果推断应用: - 用低曝光已点击 vs 高曝光未点击的 pair 进行去偏 - 发现在召回/粗排阶段效果更大,精排阶段(已有充分个性化)效果有限


内容审核技术

信源: 搜索摘要 [C级]

  • Wordfilter(基于 DFA 算法):敏感词实时过滤
  • 引入后日均违规内容减少约30%
  • 多模态审核:文本 NLP + 图像识别 + 视频帧检测
  • 人工+AI协同:AI初筛 → 人工复审

分析: 微博的审核技术栈与行业标准类似(DFA + NLP + CV),但其审核的规模和政治敏感度远超一般内容平台。敏感词库的动态维护(实时跟踪政策热点、人名、事件名)本身就是一个需要大量人力和工程投入的系统,但这方面的技术细节几乎不会公开发布。


与 Pinterest 推荐系统的对比

维度 Pinterest 微博
核心信号 视觉 + 图结构 文本 + 社交关系 + 时事热度
代表工作 PinSage/PinnerFormer(学术发表) Weidl + SNR多任务(行业演讲)
GPU serving 2022年 Scorpion GPU 重建 2022年 DeepRec 框架迁移(CPU为主)
长序列建模 16k+ 动作(2024) 50 items(发现收益递减)
学术影响力 KDD/WWW 多篇 极少公开论文
审核负担 低(商品/生活方式内容) 极高(政治敏感+饭圈+舆论管控)

推断: 微博技术投入的很大一部分被内容审核和政策合规"吸走"了,这是中国社交媒体平台的隐性成本。


信源记录

信源 URL 级别 日期 要点
InfoQ — 推荐引擎架构蜕变 https://www.infoq.cn/article/q3aw2k5wcgi702lvojry A/B 2021 QCon 3个月改造,2个9→3个9+,-25%耗时
6aiq — 实时大模型技术演进 https://www.6aiq.com/article/1682316273516 B 2023.04 FM→DNN→SNR多任务,Weidl平台,DeepRec迁移
DOIT — Weidl x DeepRec https://www.doit.com.cn/p/489418.html B 2022 精排-50%图计算耗时,吞吐+30%

遗留问题

  • Weidl 的具体架构设计和开源状态?
  • 微博是否采用了 GNN(类 PinSage)方法建模社交图?
  • 微博的广告推荐和内容推荐是否共享同一套模型/基础设施?