推荐算法日报 - 2026-04-09
2026-4-9
| 2026-4-9
字数 3766阅读时长 10 分钟
type
Post
status
Published
date
Apr 9, 2026 05:01
slug
daily-report-2026-04-09
summary
生成式推荐进入深水区:今日多篇论文聚焦生成式推荐(GeneRec)的落地挑战与优化。研究重点已从范式验证转向解决实际痛点,如美团提出的树状生成式重排(NSGR)解决视角缺失问题,清华的STAMP框架优化语义ID冗余带来的训练效率瓶颈,Google的CRAB方法则致力于缓解生成式推荐中的流行度偏差。这表明工业界正积极将生成式推荐从理论推向大规模、高性能的线上系统。; LLM从“赋能”到“重塑”推荐架构:LLM的应用正从内容理解、特征生成等辅助角色,深入到推荐系统的核心架构。例如,LGCD框架利用L
tags
推荐系统
日报
category
推荐技术报告
icon
📚
password
priority

Section 1: 📊 Trend Analysis

  • 🔥 生成式推荐进入深水区:今日多篇论文聚焦生成式推荐(GeneRec)的落地挑战与优化。研究重点已从范式验证转向解决实际痛点,如美团提出的树状生成式重排(NSGR)解决视角缺失问题,清华的STAMP框架优化语义ID冗余带来的训练效率瓶颈,Google的CRAB方法则致力于缓解生成式推荐中的流行度偏差。这表明工业界正积极将生成式推荐从理论推向大规模、高性能的线上系统。
  • 💡 LLM从“赋能”到“重塑”推荐架构:LLM的应用正从内容理解、特征生成等辅助角色,深入到推荐系统的核心架构。例如,LGCD框架利用LLM推理构建伪重叠数据以解决跨域推荐难题;LRAT范式则主张从智能体(Agent)的交互轨迹中学习新的检索模型,以适应LLM驱动的搜索代理时代。这标志着LLM正成为驱动推荐系统范式演进的关键引擎。
  • 🔧 效率与效果并重的系统级优化:在追求模型效果的同时,对训练和推理效率的优化成为显性需求。无论是STAMP框架通过语义剪枝实现1.23-1.38倍加速和显著VRAM节省,还是ReAd框架通过轻量级检索模块实现测试时快速适应,都体现了工业级推荐系统对可扩展性、实时性和资源成本的深度考量。

Section 2: 📋 今日速览

今日速览
Anhui University 结合LLM与扩散模型生成伪重叠数据,提升跨域推荐性能
Renmin University of China 提出从智能体轨迹学习检索的新范式LRAT,提升证据召回与任务成功率
Google 提出CRAB方法,通过代码本重平衡缓解生成式推荐的流行度偏差
Meituan 提出树状生成式重排框架NSGR,解决视角缺失与目标不一致问题,已线上部署
Tencent 发布工业级多模态生成式推荐数据集TencentGR-1M/10M,推动领域基准研究
Tsinghua 提出STAMP框架解决语义ID冗余,训练加速1.23-1.38倍且VRAM减少17.2%-54.7%
Huazhong University of Science and Technology 提出课程强化学习框架Curr-RLCER,提升评分与解释一致性
Shenzhen Technology University 等 提出检索增强测试时适应框架ReAd,提升序列推荐对实时偏好变化的适应性
Vienna University of Economics and Business 验证生成式检索优于稠密检索,但面临标识符歧义挑战
University of Chinese Academy of Sciences 等 提出基于LLM的结构化画像与粗排-精排流程,提升审稿人匹配效果

Section 3: 📰 Daily Digest

1. From Clues to Generation: Language-Guided Conditional Diffusion for Cross-Domain Recommendation

🔗 原文: https://arxiv.org/abs/2604.05365
🏷️ 来源: 🎓 学术界 | Anhui University
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 结合LLM和扩散模型,通过生成伪重叠数据提升跨域推荐性能。
📝 摘要: 本文针对跨域推荐中非重叠用户因缺乏对齐信号而难以进行细粒度偏好迁移的核心挑战,提出了一种新颖的LGCD框架。该框架创新性地结合了大型语言模型(LLM)和扩散模型:首先利用LLM的推理能力,为单域用户推断潜在目标偏好并映射到真实物品,从而构建伪重叠数据作为知识迁移的桥梁;然后设计条件扩散架构,基于源域模式精确生成目标用户表示。在多个数据集上的实验表明,该方法显著超越了现有SOTA方法,为解决数据稀疏场景下的跨域推荐问题提供了新思路。

2. Learning to Retrieve from Agent Trajectories

🔗 原文: https://arxiv.org/abs/2604.04949
🏷️ 来源: 🎓 学术界 | Renmin University of China
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 提出从智能体轨迹学习检索的新范式LRAT,显著提升证据召回和任务成功率。
📝 摘要: 随着LLM驱动的搜索代理兴起,传统基于人类交互假设训练的检索模型面临根本性不匹配。本文提出一个重要的新研究方向——从智能体轨迹中学习检索,并设计了LRAT框架。该框架通过系统分析智能体在多步交互轨迹中的行为信号(如浏览、拒绝、推理痕迹),从中挖掘高质量的检索监督信号,并通过加权优化融入相关性强度。在多个深度研究基准上的实验表明,经LRAT训练的检索器能持续提升证据召回率、端到端任务成功率和执行效率,为智能体搜索时代的检索模型训练提供了实用且可扩展的新范式。

3. CRAB: Codebook Rebalancing for Bias Mitigation in Generative Recommendation

🔗 原文: https://arxiv.org/abs/2604.05113
🏷️ 来源: 🏭 工业界 | Google
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: Google团队提出CRAB方法,通过代码本重平衡缓解生成式推荐的流行度偏差,提升推荐性能。
📝 摘要: 生成式推荐(GeneRec)虽性能强劲,但普遍存在并可能加剧流行度偏差。本文通过实证分析揭示了其两大根源:不平衡的token化会继承并放大历史交互偏差;训练过程过度偏向热门token而忽视语义关系。基于此,Google团队提出了CRAB这一后处理去偏策略。具体而言,对训练好的模型,首先通过分割过热门token来重平衡代码本,同时保持其层次语义结构;然后引入树结构正则化以增强语义一致性,鼓励对冷门token学习更具信息量的表示。在真实数据集上的实验证明,CRAB能有效缓解流行度偏差,从而提升推荐性能。

4. Next-Scale Generative Reranking: A Tree-based Generative Rerank Method at Meituan

🔗 原文: https://arxiv.org/abs/2604.05314
🏷️ 来源: 🏭 工业界 | Meituan
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 美团提出树状生成式重排框架NSGR,解决局部-全局视角缺失和目标不一致问题,已线上部署。
📝 摘要: 针对现有生成式重排方法缺乏局部与全局视角、以及生成器与评估器目标不一致的问题,美团提出了树状生成式重排框架NSGR。该框架包含一个“下一尺度生成器”,以从粗到细的方式逐步扩展推荐列表,平衡全局与局部视角;同时设计了一个“多尺度评估器”,通过多尺度邻居损失为生成器的每个扩展尺度提供针对性的指导信号,从而解决目标不一致问题。在公开和工业数据集上的实验验证了NSGR的有效性,并且该方法已在美团外卖平台成功部署,为工业级生成式重排系统提供了可落地的解决方案。

5. Tencent Advertising Algorithm Challenge 2025: All-Modality Generative Recommendation

🔗 原文: https://arxiv.org/abs/2604.04976
🏷️ 来源: 🏭 工业界 | Tencent
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 腾讯发布工业级多模态生成式推荐数据集,推动该领域基准研究。
📝 摘要: 为推动工业广告场景下的生成式推荐研究,腾讯组织了2025广告算法大赛并发布了两个全模态数据集:TencentGR-1M和TencentGR-10M。这两个数据集均基于真实的腾讯广告日志构建,包含丰富的协同ID和由SOTA嵌入模型提取的多模态表示,并明确区分了点击和转化事件。论文详细介绍了任务定义、数据构建、特征模式、基线GR模型、评估协议以及顶尖解决方案的关键发现。该工作为工业级全模态生成式推荐研究提供了大规模、真实的基准,具有重要的社区价值。

6. Semantic Trimming and Auxiliary Multi-step Prediction for Generative Recommendation

🔗 原文: https://arxiv.org/abs/2604.05329
🏷️ 来源: 🎓 学术界 | Tsinghua
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出STAMP框架解决语义ID冗余问题,提升训练效率并保持推荐性能。
📝 摘要: 高粒度语义ID在增强生成式推荐泛化能力的同时,也带来了序列膨胀导致的训练开销剧增和性能波动问题。本文指出其根本原因在于“语义稀释效应”。为此,提出了STAMP框架,采用双端优化策略:在输入端,语义自适应剪枝动态过滤前向传播中的冗余token,将序列压缩为信息密集的表示;在输出端,多步辅助预测采用多token目标来密集化监督信号,强化长程依赖捕获。该框架在公开和工业数据集上实现了1.23-1.38倍的训练加速和17.2%-54.7%的VRAM减少,同时保持或提升了推荐性能,为高效训练语义ID模型提供了有效方案。

7. Curr-RLCER:Curriculum Reinforcement Learning For Coherence Explainable Recommendation

🔗 原文: https://arxiv.org/abs/2604.05341
🏷️ 来源: 🎓 学术界 | Huazhong University of Science and Technology
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出课程强化学习框架Curr-RLCER,提升可解释推荐中评分与解释的一致性。
📝 摘要: 针对可解释推荐中评分预测与解释生成目标不一致的问题,本文提出了Curr-RLCER框架。该框架采用课程学习策略,引导模型从基础的点击率预测逐步过渡到开放域的推荐解释生成,以增强训练稳定性。同时,设计了一个一致性驱动的奖励机制,通过专门的评估方案来强制生成的解释与预测的评分之间保持逻辑一致性。在三个可解释推荐数据集上的实验结果表明了该框架的有效性,为构建更可信、透明的推荐系统提供了新思路。

8. Retrieve-then-Adapt: Retrieval-Augmented Test-Time Adaptation for Sequential Recommendation

🔗 原文: https://arxiv.org/abs/2604.05379
🏷️ 来源: 🎓 学术界 | Shenzhen Technology University, City University of Hong Kong, McGill University, Shenzhen University
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出检索增强的测试时适应框架ReAd,提升序列推荐模型对实时偏好变化的适应能力。
📝 摘要: 为解决序列推荐模型在推理时难以适应实时偏好分布偏移的问题,本文提出了ReAd框架。该框架在已训练的模型基础上,首先为测试用户从一个构建的协作记忆数据库中检索协同相似的物品;然后通过一个轻量级的检索学习模块,将这些物品整合成一个信息增强的嵌入表示,该表示同时捕获了协作信号和预测精炼线索;最后,通过融合机制利用该嵌入来精炼初始的序列推荐预测。在五个基准数据集上的实验表明,ReAd能持续提升模型性能,为实现高效、自适应的在线推荐提供了可行路径。

9. Generative Retrieval Overcomes Limitations of Dense Retrieval but Struggles with Identifier Ambiguity

🔗 原文: https://arxiv.org/abs/2604.05764
🏷️ 来源: 🎓 学术界 | Vienna University of Economics and Business
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 通过合成数据集验证生成式检索优于稠密检索但面临标识符歧义问题。
📝 摘要: 本文使用此前为揭示稠密检索理论局限性而设计的合成数据集LIMIT,评估了生成式检索模型的性能。实验发现,生成式检索(如SEAL, MINDER)在该数据集上无需额外训练即可达到最佳性能(R@2最高0.99),显著优于稠密检索(R@2 < 0.03)和BM25(R@2 0.86)。然而,当在数据集中加入简单的困难负样本后,所有模型性能均下降,生成式检索的R@2降至0.51。错误分析指出,性能下降源于解码机制失败,即模型无法生成与相关文档唯一对应的标识符。这揭示了生成式检索在实际应用中面临的核心挑战,为未来研究方向提供了重要启示。

10. Beyond Paper-to-Paper: Structured Profiling and Rubric Scoring for Paper-Reviewer Matching

🔗 原文: https://arxiv.org/abs/2604.05866
🏷️ 来源: 🎓 学术界 | University of Chinese Academy of Sciences, Westlake University, Chinese Academy of Sciences
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出基于LLM的结构化专家画像和粗排-精排流程,提升审稿人匹配效果。
📝 摘要: 针对现有审稿人推荐方法主要依赖“论文到论文”的隐式匹配、难以捕获多维专家知识的局限,本文提出了P2R框架。该框架利用通用LLM为投稿和审稿人构建结构化的画像,将其解构为研究主题、方法与应用三个维度。基于此,P2R采用粗排-精排流程:首先结合语义和方面级信号进行混合检索,形成高召回候选池;然后由基于LLM的“委员会”依据严格的评分标准对候选人进行评估,综合多维专家视角和整体主席视角。在NeurIPS、SIGIR等数据集上的实验表明,P2R性能优于现有SOTA方法,为应用LLM解决复杂匹配任务提供了实践指导。
  • 推荐系统
  • 日报
  • AI周报 2026-W08推荐算法日报 - 2026-04-08
    Loading...