推荐周报 2026-W17

工业 backbone 的 scaling 主线进入分化期。 本周三篇工业重磅都不再纠结"堆参数",而是从不同侧面回答"参数堆到一定规模后,下一个瓶颈在哪里":腾讯 RankUp 把"表示有效秩坍缩"作为一阶问题攻;阿里 LoopCTR 把训练算力和参数量解耦——共享层递归循环吃训练算力,推理时零循环;美团 SIF 把 token 化粒度从 item 上移到 sample 级,绕开序列与非序列特征的结构异构鸿沟。三家三种解法,但共同前提一致——serving 成本不可破,加法都加在训练侧或表示侧。 LLM 接精排的初期收益期在收尾,进入分层精修阶段。 阿里 MARC 给出"中层表示更优(MRA)"的反直觉观察,并把 LLM 显式拆成"表示学习 + 压缩 + 任务适配"三模块;华东师大 TF-LLMER 从优化曲率切入,定位 LLM 表示与协同 embedding 之间的范数差异和聚类角度错位是训练损失下不去的根因,并在实验中把 Yelp 训练损失约降低 30%;LLMAR 走完全免调优路线,把 nDCG@10 在工业 B2B 稀疏场景拉高 54.6%、每千用户推理成本 $1。理论上要解释训练为何不收敛,工程上要回答缓存哪一层、调不调,部署上要算清每千用户多少钱——三类问题都有了具体答案。 生成式与长序列推荐补足理论债,并开始挑战"候选无关用户表示"假设。 快手对生成式推荐核心训练目标做了形式化证明——k-token AR-NTP 与全词表 MLE 在 item ↔ k-Token 双射下严格等价,OneRec 那条流水线的损失函数选择第一次有了理论锚点。Meta 的 Mixture of Sequence 用主题感知 MoE 把长序列按主题拆成子序列,挑战的是"先压缩再打分"的传统思路;CaST-POI 则把候选当 query 去 attend 用户历史,跳出了"候选无关用户表示"的隐含假设——两条路线都在重写序列读取方式。

推荐算法日报 - 2026-04-25

[生成式与扩散模型进入推荐核心]:今日多篇论文探索了生成式范式在推荐系统中的应用,包括将扩散模型用于Learning to Rank(DenoiseRank)、以及利用语义ID(SemanticID)进行生成式推荐。这标志着推荐系统正从传统的判别式模型向生成式模型演进,但多数工作仍处于学术探索阶段,工业落地尚需验证。; [长序列与复杂用户行为建模成为焦点]:针对用户行为序列中的兴趣漂移(Session Hopping)和噪声问题,出现了主题感知MoE(MoS)和小波包引导图增强(WPGRec)等

推荐算法日报 - 2026-04-24

LLM 增强推荐进入深水区:从“堆特征”到“解优化”:今日两篇论文(TF-LLMER 和可治理个性化观点文)表明,业界不再满足于简单地将 LLM 特征注入推荐模型。研究焦点已转向 LLM 表示与推荐骨干网络之间的优化冲突(如范数差异、角度聚类不匹配)以及用户表征的可治理性(透明、可移植、可控制)。这预示着 LLM-for-Rec 正从“工程堆叠”阶段迈向“理论分析与系统设计”阶段。; 检索评估与加速迎来新范式:从“精确匹配”到“语义感知”:Google 提出的 Semantic Recall 和

推荐算法日报 - 2026-04-23

双塔模型能力增强与效率平衡:工业界正致力于在保持双塔模型高效性的前提下,通过引入自适应特征去噪、跨塔同步、知识蒸馏等机制,系统性增强其表征能力和对齐效果,以弥合召回阶段的性能鸿沟。; LLM作为语义增强器融入推荐全链路:LLM的角色正从独立的推荐器演变为强大的语义增强组件,被用于生成训练数据、验证先验知识、辅助重排以及理解复杂指令,以提升模型的语义理解和泛化能力。; 🔬 学术界聚焦模型可解释性与评估标准化:学术界的研究热点正从单纯追求性能提升,转向对模型内部机制(如反事实解释)的深入理解,并致

推荐算法日报 - 2026-04-22

LLM驱动的推荐系统优化:今日多篇论文聚焦于如何更高效、更鲁棒地将LLM集成到推荐系统中。核心挑战包括:如何压缩高维LLM表示以降低工业部署成本(MARC)、如何利用LLM推理解决稀疏文本场景的冷启动问题(LLMAR)、以及如何通过多LLM集成或注意力空间优化来稳定提升推荐效果(MLTFR, HeadRank)。这表明LLM在推荐中的应用正从“是否可用”转向“如何用好”的精细化阶段。; 表示学习与模型鲁棒性:无论是传统精排模型还是LLM基模型,其表示能力(Representation Capac

推荐算法日报 - 2026-04-21

工业界范式理论化:今日论文显示,工业界正从单纯追求模型性能,转向为已广泛部署的范式(如生成式推荐、统一大模型)建立坚实的理论基础。快手论文证明了自回归预测与全物品最大似然估计的等价性,为系统优化提供了原则性指导。; 从静态到自适应推理:针对用户行为异质性的“一刀切”策略正被淘汰。学术界研究开始聚焦于自适应推理技术,例如通过强化学习为每个用户序列动态选择最优的数据增强策略,以在不重训练模型的前提下提升推理精度和效率。; 特征与表示的深度解耦与融合:无论是工业界将原始样本编码为同质化序列token,

推荐算法日报 - 2026-04-20

📭 今日无更新:今日未收录新的精选论文,暂无法进行趋势分析。

推荐周报 2026-W16

本周 17 篇推荐系统论文里,工业界把线上实际部署作为论证工具,三条技术主线非常清楚。 第一条线是生成式推荐落地的工程化转向。 京东 GenRec 在 JD App 跑了一个月 A/B,点击 +9.5%、成交 +8.7%。UniRec 把属性 token 显式注入 SID 解码,HR@50 比最强 baseline 再提 22.6%。字节 R3-VAE 在头条线上拿到 MRR +1.62%,同时把 CTR 模型的内容冷启提高 15.36%。三篇放一起看,生成式召回已经从"能不能跑通"转到"怎么把 prefill 成本压下来、怎么让 RL 训练稳定、怎么在训练期就评估 SID 质量"这些具体工程问题。 第二条线是基础模型不再硬上线。 Meta 的 SOLARIS 把 foundation model 异步预计算、offload 出关键路径,广告系统 top-line revenue +0.67%;Meta 的 Hierarchical Indexing 把扁平索引换成可学习层级结构,支撑 Facebook/Instagram 数十亿日活广告召回;字节 IAT 把单次交互压成 instance token、让下游继续用便宜的标准模型。蒸馏不再是默认解,工业界开始拆解 serving 关键路径。 第三条线是 LLM 的产出物从"推荐结果"退到"中间件"。 本周 LLM 相关的 4 篇——SAGER、local-life agentic reasoning、DUET、SemaCDR——都不让 LLM 直接出分数,而是让它输出 per-user policy skill、可验证推理链、可训练 profile、可迁移语义特征。这是对"LLM 直接当排序器"路线的集体回调。

推荐算法日报 - 2026-04-18

生成式推荐迈向工业级部署:今日论文显示,生成式推荐(Generative Retrieval)正从学术探索走向大规模工业应用。以JD的GenRec为代表,研究重点转向解决线上部署的实际挑战,如分页请求一致性、长序列编码成本以及策略对齐,并通过A/B测试验证了显著的线上收益(点击+9.5%),标志着该范式进入实用化阶段。; LLM Agent的个性化推理成为新焦点:基于LLM的推荐代理(Agent)正从利用通用记忆向个性化推理演进。腾讯的SAGER框架首次为每个用户配备可自演化的“策略技能”,实现

推荐算法日报 - 2026-04-17

LLM驱动的推荐系统走向深度融合:今日多篇论文聚焦于如何将大语言模型(LLM)更深度、更有效地融入推荐系统。研究不再停留于简单的提示工程,而是深入到联合生成用户/物品描述(DUET)、统一建模需求预测与推荐(美团)、以及将权威性等复杂信号融入生成式检索(AuthGR),标志着LLM推荐正从“辅助工具”向“核心推理引擎”演进。; 序列推荐模型的精细化与统一化:针对用户行为序列的建模持续深化。一方面,研究致力于增强模型对时间跨度的感知能力(RoTE)或融合多视图信息(MVCrec),以提升序列建模的

推荐算法日报 - 2026-04-16

工业级大规模模型部署优化:今日多篇高评分论文均来自工业界,核心聚焦于如何将性能强大的基础模型(Foundation Models)高效、低成本地部署到超大规模推荐系统中。Meta的两篇工作分别从分层索引和推测性预计算切入,旨在解耦高延迟的模型推理与实时服务路径,在保证性能的同时显著降低线上成本,代表了工业界应对“模型大”与“服务快”矛盾的主流技术方向。; 生成式推荐走向实用化:生成式推荐正从概念验证迈向实际部署。阿里巴巴的UniRec工作通过引入Chain-of-Attribute等机制,形式化