2026-04-24 日报
主题: LLM 离线知识蒸馏赋能传统序列推荐
标签: sequential-rec · knowledge-distillation · llm-based · academic
📊 统计: 共 1 篇 · 精读 0 · 🏢 工业界 0 · 🎓 学术 1 · llm 1 · discriminative-rec 1
综述
今日仅 1 篇相关 ArXiv 提交,属学术界工作,同时归入"LLM"与"判别式推荐"两类。重点论文为 Severin 等人提出的 LLM-蒸馏序列推荐框架(arxiv 2604.21536):利用预训练 LLM 在离线阶段为用户生成文本化画像,作为额外监督信号蒸馏进传统序列推荐模型,在线服务时完全无需 LLM 推理,也不改动既有模型架构,从而在保留传统模型低延迟优势的同时引入 LLM 的语义理解能力。该工作延续了"LLM 仅在离线/训练侧介入、线上保留判别式骨干"的务实路线,与此前 CAST、LoopCTR 等工业可落地方向一致,反映出学界对 LLM-增强推荐的关注正从"端到端替换"转向"知识迁移与蒸馏",值得持续跟踪其在公开数据集外的工业可复现性。
重点论文
Pre-trained LLMs Meet Sequential Recommenders: Efficient User-Centric Knowledge Distillation · ⭐ 5/10
🎓 学术 · LLM / 判别式推荐
提出一种知识蒸馏方法:用预训练 LLM 离线生成文本化用户画像作为监督信号蒸馏到序列推荐模型中,线上服务时无需 LLM 推理,也不改动推荐模型架构。
全部论文
| 模型 | 标题 | 类别 | 公司 | 摘要分 | 精读分 |
|---|---|---|---|---|---|
| — | Pre-trained LLMs Meet Sequential Recommenders: Efficient User-Centric Knowledge Distillation | LLM / 判别式 | 🎓 学术 | 5 | — |