← 返回报告列表

2026-04-24 日报

日报 📅 2026-04-23
LLM 离线知识蒸馏赋能传统序列推荐
sequential-rec knowledge-distillation llm-based academic
📊 共 1 篇 · 精读 0

2026-04-24 日报

主题: LLM 离线知识蒸馏赋能传统序列推荐

标签: sequential-rec · knowledge-distillation · llm-based · academic

📊 统计: 共 1 篇 · 精读 0 · 🏢 工业界 0 · 🎓 学术 1 · llm 1 · discriminative-rec 1

综述

今日仅 1 篇相关 ArXiv 提交,属学术界工作,同时归入"LLM"与"判别式推荐"两类。重点论文为 Severin 等人提出的 LLM-蒸馏序列推荐框架(arxiv 2604.21536):利用预训练 LLM 在离线阶段为用户生成文本化画像,作为额外监督信号蒸馏进传统序列推荐模型,在线服务时完全无需 LLM 推理,也不改动既有模型架构,从而在保留传统模型低延迟优势的同时引入 LLM 的语义理解能力。该工作延续了"LLM 仅在离线/训练侧介入、线上保留判别式骨干"的务实路线,与此前 CAST、LoopCTR 等工业可落地方向一致,反映出学界对 LLM-增强推荐的关注正从"端到端替换"转向"知识迁移与蒸馏",值得持续跟踪其在公开数据集外的工业可复现性。

重点论文

Pre-trained LLMs Meet Sequential Recommenders: Efficient User-Centric Knowledge Distillation · ⭐ 5/10

🎓 学术 · LLM / 判别式推荐

提出一种知识蒸馏方法:用预训练 LLM 离线生成文本化用户画像作为监督信号蒸馏到序列推荐模型中,线上服务时无需 LLM 推理,也不改动推荐模型架构。

全部论文

模型 标题 类别 公司 摘要分 精读分
Pre-trained LLMs Meet Sequential Recommenders: Efficient User-Centric Knowledge Distillation LLM / 判别式 🎓 学术 5