← 返回报告列表

2026-04-22 日报

日报 📅 2026-04-21
工业级推荐系统的结构创新与 scaling 新维度
ctr-prediction sequential-rec scaling semantic-id industrial
📊 共 7 篇 · 精读 3

2026-04-22 日报

主题: 工业级推荐系统的结构创新与 scaling 新维度

标签: ctr-prediction · sequential-rec · scaling · semantic-id · industrial

📊 统计: 共 7 篇 · 精读 3 · 🏢 工业界 2 · 🎓 学术 5 · discriminative-rec 4 · llm 3

综述

今日共纳入 7 篇论文,4 篇判别式推荐 + 3 篇 LLM 相关,工业-学术比约 4:3,其中 3 篇完成精读且评分均达 8 分。Alibaba 的 LoopCTR 把共享层递归复用提升为正交于深度/宽度/输入的第四种 scaling 维度,配合 Hyper-Connected Residuals、MoE 与多深度 process supervision,实现 train-multi-loop / infer-zero-loop——推理阶段完全跳过 Loop Block 仍超越所有 Transformer baseline。Kuaishou 的 CS3 以 CAS 循环自适应结构、CTS 跨塔同步、CMS 级联模型共享三个即插即用模块强化在线学习约束下的双塔召回,三场景一致增益、Scenario A 广告收入 +8.36% 而 QPS 开销 <1%。学术侧 CAST 则在离散语义码空间用 LLM 验证的互补先验 + D×C×C 转移张量直接建模 code-level 转移,相对最强 baseline Recall/NDCG 最高 +17.66%、训练加速 65×。其余 SAW-INT4(KV-cache 4-bit 量化)、Nexusformer(非线性注意力 + 零初始化结构增长)、GraphRAG-IRL 与反事实解释复现研究构成补充。整体趋势显示:工业推荐正在从堆参数转向「在 serving 约束内挖掘结构性 scaling」,而语义 ID + 转移建模、LLM 先验注入则继续推动学术侧细粒度行为建模的样本效率。

重点论文

CS3 · ⭐ 8/10

CS3: Efficient Online Capability Synergy for Two-Tower Recommendation

🏢 Kuaishou · 判别式推荐

提出 CS3 即插即用三模块框架(CAS 循环自适应结构、CTS 跨塔同步、CMS 级联模型共享),在在线学习约束下增强双塔召回,Kuaishou 广告系统三场景一致增益,Scenario A 广告收入 +8.36%

LoopCTR · ⭐ 8/10

LoopCTR: Unlocking the Loop Scaling Power for Click-Through Rate Prediction

🏢 Alibaba · 判别式推荐

提出 LoopCTR,将共享层递归复用作为正交的第四种 scaling 维度引入 CTR 预估,配合 Hyper-Connected Residuals、MoE 与多深度 process supervision,实现 train-multi-loop / infer-zero-loop——单次前向(甚至完全跳过 Loop Block)即超过所有 Transformer baseline。

CAST · ⭐ 7/10

CAST: Modeling Semantic-Level Transitions for Complementary-Aware Sequential Recommendation

🎓 学术 · 判别式推荐

提出 CAST 框架,通过 LLM 验证的互补关系先验 + 可学习的子空间语义转移张量,在离散语义码空间直接建模细粒度 code-level 转移,在三个 Amazon 数据集上 Recall/NDCG 最高提升 17.66%,相对最强 baseline 训练加速 65x。

全部论文

模型 标题 类别 公司 摘要分 精读分
CS3 CS3: Efficient Online Capability Synergy for Two-Tower Recommendation 判别式 🏢 Kuaishou 8 8
LoopCTR LoopCTR: Unlocking the Loop Scaling Power for Click-Through Rate Prediction 判别式 🏢 Alibaba 8 8
CAST CAST: Modeling Semantic-Level Transitions for Complementary-Aware Sequential Recommendation 判别式 🎓 学术 7 7
SAW-INT4 SAW-INT4: System-Aware 4-Bit KV-Cache Quantization for Real-World LLM Serving LLM 🎓 学术 6
Nexusformer Nexusformer: Nonlinear Attention Expansion for Stable and Inheritable Transformer Scaling LLM 🎓 学术 6
GraphRAG-IRL GraphRAG-IRL: Personalized Recommendation with Graph-Grounded Inverse Reinforcement Learning and LLM Re-ranking LLM 🎓 学术 5
From Top-1 to Top-K: A Reproducibility Study and Benchmarking of Counterfactual Explanations for Recommender Systems 判别式 🎓 学术 4