type
status
date
slug
summary
tags
category
icon
password
priority
Section 1: 📊 Trend Analysis
- 🔥 生成式推荐与LLM的工程化落地:今日论文显示,业界正积极将LLM领域的技术(如量化、强化学习)迁移至推荐系统。快手的工作证明了FP8量化在生成式推荐模型上的巨大工程收益,而学术界则探索用RL对齐LLM推荐器以适应动态目标,标志着技术从模型创新向系统优化和实用化迈进。
- 💡 联邦推荐向精细化与实用化演进:联邦学习在推荐中的应用不再局限于基础框架,开始关注更实际的挑战。今日两篇论文分别聚焦于支持个性化数据共享与遗忘的灵活隐私框架,以及通过锐度感知优化解决嵌入泛化难题,体现了研究正从“能用”向“好用、稳定、可管理”深化。
Section 2: 📋 今日速览
今日速览 |
快手 为OneRec-V2部署FP8量化,延迟降49%吞吐升92%且线上无损 ↗ |
Yale & Snap 用RL优化LLM推荐器适应动态需求,NDCG@5最高提升59% ↗ |
UTS & 浙大 提出支持个性化共享与遗忘的联邦推荐框架FedShare ↗ |
浙大 & OPPO 用锐度感知最小化优化联邦推荐嵌入泛化,提升模型性能 ↗ |
Section 3: 📰 Daily Digest
1. Quantized Inference for OneRec-V2
🔗 原文: https://arxiv.org/abs/2603.11486
🏷️ 来源: 🏭 工业界 | Kuaishou
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 快手提出FP8量化框架,在OneRec-V2上实现49%延迟降低和92%吞吐提升,线上A/B测试无指标下降。
📝 摘要: 本文针对生成式推荐模型OneRec-V2,解决了低精度量化在工业推荐系统中应用困难的问题。通过分析发现,OneRec-V2的权重和激活值分布比传统推荐模型更可控,且计算模式更密集,硬件利用率更高,因此更适合量化。基于此,快手开发了一套FP8后训练量化框架,并将其集成到优化的推理基础设施中,实现了端到端推理延迟降低49%和吞吐量提升92%的显著系统收益。线上A/B测试进一步证实,FP8推理对核心推荐指标无负面影响,为大规模生成式推荐模型的工程部署提供了可直接借鉴的优化方案。
2. FlexRec: Adapting LLM-based Recommenders for Flexible Needs via Reinforcement Learning
🔗 原文: https://arxiv.org/abs/2603.11901
🏷️ 来源: 🤝 产学合作 | Yale University, University of California, Davis, Snap Inc.
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 提出FlexRec框架,用RL优化LLM推荐器,实现动态需求适应,提升效果显著。
📝 摘要: 本文旨在解决传统推荐器难以动态适应不同场景下特定需求指令的问题。为此,提出了FlexRec框架,通过强化学习对LLM推荐器进行后训练,使其能根据明确的“需求指令”对固定候选集进行自回归排序。该框架创新性地设计了基于反事实交换的因果Item级奖励,以解决序列级奖励信号粗糙的问题,并引入了不确定性感知的奖励缩放机制来稳定稀疏反馈下的学习过程。在多种推荐场景和目标下,FlexRec取得了显著效果提升,如在需求特定排序任务中,NDCG@5最高提升59%,Recall@5最高提升109.4%,为构建灵活、可指令控制的LLM推荐系统提供了新思路。
3. Federated Learning and Unlearning for Recommendation with Personalized Data Sharing
🔗 原文: https://arxiv.org/abs/2603.11610
🏷️ 来源: 🎓 学术界 | University of Technology Sydney, University of Queensland, Zhejiang University
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出支持个性化数据共享与遗忘的联邦推荐框架FedShare,兼顾隐私与性能。
📝 摘要: 本文针对现有联邦推荐系统通常要求所有用户数据严格本地化、无法灵活处理用户动态隐私偏好的局限,提出了FedShare框架。该框架不仅允许用户个性化控制与服务器共享的数据量以换取更好的推荐性能,还首次支持用户“取消共享”数据的请求,并能从已训练的模型中移除相应数据的影响。具体地,FedShare利用共享数据在服务器端构建高阶用户-物品图,并通过对比学习对齐本地与全局表示;在遗忘阶段,设计了一种对比遗忘机制,仅需少量历史嵌入快照即可选择性移除未共享数据的影响,避免了存储大量历史梯度的开销。在多个公开数据集上的实验表明,FedShare在学习和遗忘阶段均能保持较强的推荐性能,并在遗忘阶段显著降低了存储开销。
4. Sharpness-Aware Minimization for Generalized Embedding Learning in Federated Recommendation
🔗 原文: https://arxiv.org/abs/2603.11503
🏷️ 来源: 🤝 产学合作 | Zhejiang University, Hangzhou Dianzi University, OPPO Research Institute
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出FedRecGEL框架,用SAM优化联邦推荐中的嵌入泛化问题,提升推荐性能。
📝 摘要: 本文关注联邦推荐中一个被忽视的关键问题:在数据异构且稀疏的跨设备环境下,如何稳定地学习具有泛化能力的物品嵌入。物品嵌入是联邦知识共享的核心,其学习不稳定会严重影响推荐效果。为此,作者提出了FedRecGEL框架,从物品中心视角将联邦推荐重构为一个多任务学习问题,旨在学习通用嵌入。基于理论分析,框架引入了锐度感知最小化(SAM)来优化损失平面的平坦性,从而解决泛化问题、稳定训练过程并提升最终性能。在四个数据集上的广泛实验验证了FedRecGEL在提升联邦推荐性能方面的有效性,为改善联邦场景下的嵌入学习提供了新的技术路径。