推荐算法日报 - 2026-05-08
2026-5-8
| 2026-5-8
字数 1884阅读时长 5 分钟
type
Post
status
Published
date
May 8, 2026 05:00
slug
daily-report-2026-05-08
summary
LLM推荐走向端侧与列表级优化:今日两篇论文分别从端侧部署(RecGPT-Mobile)和列表级对齐(BLADE)两个方向推进LLM在推荐系统中的应用。前者解决端侧推理成本与实时性,后者突破静态对齐的性能上限,共同指向LLM推荐从“能用”到“高效、精准”的落地路径。; 生成式推荐进入“软路由”时代:CapsID用胶囊路由替代传统硬量化,解决了语义ID生成中的边界坍塌和误差传播问题,在35M级工业数据集上召回提升9.6%。这标志着生成式推荐的核心瓶颈从模型架构转向了tokenizer设计,软路由+
tags
推荐系统
日报
category
推荐技术报告
icon
📚
password
priority
1

Section 1: 📊 Trend Analysis

  • 🔥 LLM推荐走向端侧与列表级优化:今日两篇论文分别从端侧部署(RecGPT-Mobile)和列表级对齐(BLADE)两个方向推进LLM在推荐系统中的应用。前者解决端侧推理成本与实时性,后者突破静态对齐的性能上限,共同指向LLM推荐从“能用”到“高效、精准”的落地路径。
  • 💡 生成式推荐进入“软路由”时代:CapsID用胶囊路由替代传统硬量化,解决了语义ID生成中的边界坍塌和误差传播问题,在35M级工业数据集上召回提升9.6%。这标志着生成式推荐的核心瓶颈从模型架构转向了tokenizer设计,软路由+变长语义ID成为新范式。

Section 2: 📋 今日速览

今日速览
中科大/浙大 提出贝叶斯动态对齐BLADE,打破静态BoN性能上限
阿里巴巴 端侧LLM RecGPT-Mobile实时理解用户意图,提升淘宝推荐
阿里巴巴 CapsID软路由语义ID,生成式推荐召回提升9.6%
希尔德斯海姆大学 用卷积替代自注意力ConvRec,线性复杂度序列推荐
北大/川大/华盛顿大学 提出兴趣燃尽扩散过程StageCF,协同过滤新范式
西南大学 BNBT模型用block term分解提升QoS预测精度

Section 3: 📰 Daily Digest

1. Beyond Static Best-of-N: Bayesian List-wise Alignment for LLM-based Recommendation

🔗 原文: https://arxiv.org/abs/2605.04559
🏷️ 来源: 🎓 学术界 | USTC, Zhejiang University
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 贝叶斯动态对齐突破LLM推荐列表级优化瓶颈
📝 摘要: 现有LLM推荐方法主要依赖token级目标,难以优化列表级非可微指标(如NDCG、公平性)。本文提出BLADE,引入贝叶斯框架动态更新目标分布,融合历史先验与模型当前rollout的动态证据,构建自演进对齐目标,解决静态BoN对齐中“无差别监督”和“梯度衰减”两大局限。在三个真实数据集上显著超越SOTA,并打破静态性能上限,在排序精度(Recall、NDCG)和列表级指标(公平性、多样性)上均获得持续增益。该方法为LLM推荐从token级到列表级的优化提供了新范式,代码已开源。

2. RecGPT-Mobile: On-Device Large Language Models for User Intent Understanding in Taobao Feed Recommendation

🔗 原文: https://arxiv.org/abs/2605.04726
🏷️ 来源: 🏭 工业界 | Alibaba
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 端侧LLM实时理解用户意图,提升淘宝推荐效果。
📝 摘要: 在电商场景中,用户意图快速演变,预测下一查询是关键问题。本文提出RecGPT-Mobile,设计轻量级LLM意图理解Agent并直接部署在移动设备端,通过模型压缩(量化、剪枝、蒸馏)适配端侧资源约束,实现低延迟实时推理。相比云端部署,端侧方案能更快捕捉用户兴趣变化并实时调整推荐结果。离线分析和线上A/B实验均表明该方法显著提升了推荐准确率,为LLM在移动端生产级推荐系统的规模化部署提供了可行路径。

3. CapsID: Soft-Routed Variable-Length Semantic IDs for Generative Recommendation

🔗 原文: https://arxiv.org/abs/2605.05096
🏷️ 来源: 🏭 工业界 | Alibaba
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 软路由语义ID,提升生成式推荐召回9.6%
📝 摘要: 生成式推荐的核心瓶颈在于tokenizer而非Transformer。本文提出CapsID,用胶囊路由替代残差向量量化中的硬最近邻分配,每个物品概率性地路由到多个语义胶囊,残差由路由重建更新而非单一获胜码本,同时通过置信度驱动实现变长语义ID。在此基础上,SemanticBPE将相邻SID token组合为可复用子词。在Amazon Beauty/Sports/Toys和35M-item工业数据集上,CapsID+SemanticBPE相比最强单表示基线ReSID,Recall@10平均提升9.6%,推理延迟仅为COBRA风格稀疏-稠密系统的51%,且长尾物品增益最大。

4. Rethinking Convolutional Networks for Attribute-Aware Sequential Recommendation

🔗 原文: https://arxiv.org/abs/2605.04723
🏷️ 来源: 🤝 产学合作 | University of Hildesheim, Volkswagen Financial Services AG
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 用卷积替代自注意力,实现线性复杂度的序列推荐。
📝 摘要: 现有属性感知序列推荐依赖自注意力机制,计算和内存复杂度高,难以处理长用户历史。本文提出ConvRec,采用分层降采样卷积层生成紧凑且富有表达力的序列表示,计算和内存复杂度均为线性。每个卷积层逐步聚合相邻物品信息,最终形成全局序列表征。在四个真实数据集上,ConvRec超越了SOTA序列推荐模型,证明了卷积架构在序列建模中的潜力,为长序列推荐提供了更高效的替代方案。

5. Interests Burn-down Diffusion Process for Personalized Collaborative Filtering

🔗 原文: https://arxiv.org/abs/2605.05165
🏷️ 来源: 🎓 学术界 | Peking University, Sichuan University, University of Washington
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出兴趣燃尽扩散过程,为协同过滤提供新的生成范式。
📝 摘要: 传统扩散模型使用高斯噪声建模用户兴趣,与用户个性化交互行为的微妙特性不匹配。本文提出兴趣燃尽扩散过程,描述用户对候选物品兴趣的衰减,其逆过程(燃起过程)生成个性化推荐。基于此提出StageCF方法,在多个数据集上优于现有生成式和扩散基线方法。该工作为协同过滤任务定制了专用扩散方案,但方法复杂度较高,实用性有待进一步验证。

6. A Biased Nonnegative Block Term Tensor Decomposition Model for Dynamic QoS Prediction

🔗 原文: https://arxiv.org/abs/2605.04813
🏷️ 来源: 🎓 学术界 | Southwest University
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出BNBT模型,用block term分解提升QoS预测精度。
📝 摘要: 现有QoS预测方法主要基于CP或Tucker张量分解,难以捕捉用户-服务交互中的复杂动态依赖。本文提出BNBT框架,从三方面改进:采用block term张量分解增强隐特征学习能力;引入线性偏置项提升预测精度;设计面向张量的单元素依赖非负乘法更新算法SLF-NMUT进行高效参数估计。在真实QoS数据集上,BNBT在预测精度上一致优于多种SOTA方法,为服务推荐中的QoS预测提供了新的技术方案。
  • 推荐系统
  • 日报
  • AI 技术日报 - 2026-05-08AI 技术日报 - 2026-05-07
    Loading...