推荐算法日报 - 2026-02-25
2026-2-25
| 2026-3-1
字数 3479阅读时长 9 分钟
type
status
date
slug
summary
tags
category
icon
password
priority

Section 1: 📊 Trend Analysis

  • 🔥 语义ID驱动的生成式推荐走向成熟与优化:今日多篇论文围绕语义ID(Semantic ID)展开,标志着生成式推荐范式正从概念走向工业落地。研究重点已从“如何构建SID”转向“如何高效、精准地使用SID”,具体表现为:1)动态化:通过协同信号(如UID)或LLM推理,在推荐阶段动态调整SID的语义权重,以对齐推荐目标(IntRR, TAGCF);2)效率化:通过递归压缩(IntRR)或层次化稀疏激活(HiSAC)解决SID序列过长带来的计算瓶颈。这反映了业界正致力于解决该范式在精度和效率上的核心痛点。
  • 💡 LLM与推荐系统的深度融合:从特征到结构与流程:LLM的应用正从浅层特征提取,深入到推荐系统的核心架构与流程再造。今日论文展示了三种深度融合范式:1)结构生成:利用LLM的推理能力,将语义知识转化为图拓扑结构(TAGCF),增强协同信号;2)流程优化:利用LLM生成无偏的伪标签(GPL)或优化输入给LLM的文本表示(From Logs to Language),以解决样本偏差、冷启动等传统难题;3)知识蒸馏:将LLM的语义知识蒸馏到轻量级编码器中(PRECTR-V2),实现性能与效率的平衡。
  • 🔧 工业界聚焦“偏差校正”与“效率工程”:今日工业界论文(阿里、Netflix)普遍关注两个核心落地问题:偏差效率。在偏差方面,工作重点从简单的负采样,转向利用LLM生成内容感知的伪标签(GPL)或构造合成硬负样本(PRECTR-V2)来校正曝光偏差。在效率方面,论文详细阐述了为满足线上延迟约束所做的工程优化,如离线构建兴趣代理(HiSAC)、请求级压缩(HiSAC)、递归解码(IntRR)等,体现了工业级方案对“可部署性”的极致追求。

Section 2: 📋 今日速览

今日速览
阿里 提出超长序列层次化稀疏压缩框架,线上CTR+1.65%
阿里 用LLM生成伪标签解决粗排样本偏差,线上CTR+3.07%
中科大等 提出语义转拓扑新范式,用LLM构建图提升CF性能
阿里 提出动态重分配与递归压缩框架,优化生成式推荐效率
阿里 迭代搜索排序统一框架,解决冷启动与偏差,线上GMV+3.18%
Netflix 提出可学习的verbalization框架,用RL优化LLM推荐输入
约翰霍普金斯大学 提出注意力引导聚类,压缩多模态检索索引
UNIST 构建电商多模态知识图谱,统一表示提升推荐与搜索效果

Section 3: 📰 Daily Digest

1. HiSAC: Hierarchical Sparse Activation Compression for Ultra-long Sequence Modeling in Recommenders

🔗 原文: https://arxiv.org/abs/2602.21009v1
🏷️ 来源: 🤝 产学合作 | Alibaba, Renmin University
⭐ 评分: ⭐⭐⭐⭐⭐ (5/5)
🎯 推荐理由: 阿里超长序列建模的工业级解法,线上CTR+1.65%,融合语义ID与层次化稀疏激活,工程细节详实。
📝 摘要: 本文针对工业界超长用户行为序列建模的计算与内存瓶颈,提出了一套完整的层次化稀疏激活压缩框架。该方法首先将商品编码为多级语义ID,构建全局层次化码本;然后通过层次化投票机制稀疏激活个性化的兴趣代理作为细粒度偏好中心;最后,通过软路由注意力在语义空间聚合历史信号,最小化量化误差并保留长尾偏好。在淘宝“猜你喜欢”首页的线上A/B测试中,该框架在实现显著压缩和成本降低的同时,带来了1.65%的CTR稳定提升,其详尽的工程部署优化(如离线构建、请求级压缩、缓存增强)为业界提供了可落地的超长序列建模方案。

2. Generative Pseudo-Labeling for Pre-Ranking with LLMs

🔗 原文: https://arxiv.org/abs/2602.20995v1
🏷️ 来源: 🤝 产学合作 | Alibaba, Renmin University
⭐ 评分: ⭐⭐⭐⭐⭐ (5/5)
🎯 推荐理由: 阿里提出用LLM生成伪标签解决粗排样本偏差,线上CTR+3.07%,方法扎实,工业落地典范。
📝 摘要: 本文旨在解决工业推荐系统粗排阶段因训练数据(仅曝光样本)与线上服务(全量召回候选)分布不匹配而导致的严重样本选择偏差问题。作者创新性地提出生成式伪标签框架,利用LLM基于用户历史行为生成未来可能感兴趣的语义ID作为“兴趣锚点”,并在冻结的语义空间中与未曝光的候选物品进行匹配,从而为它们生成无偏的、内容感知的伪标签。该方法所有LLM推理均离线完成,线上零延迟开销。在淘宝首页的大规模线上A/B测试中,该框架实现了3.07%的CTR提升,并显著增强了推荐多样性和长尾物品的发现能力。

3. Turning Semantics into Topology: LLM-Driven Attribute Augmentation for Collaborative Filtering

🔗 原文: https://arxiv.org/abs/2602.21099v1
🏷️ 来源: 🤝 产学合作 | University of Science and Technology of China, Alibaba, The Hong Kong University of Science and Technology
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 提出“语义转拓扑”新范式,用LLM构建用户-属性-物品图,显著提升CF模型性能,方法新颖扎实。
📝 摘要: 本文探索了LLM与传统协同过滤模型深度融合的新范式,核心思想是将LLM的语义推理能力转化为图拓扑结构,而非传统的特征嵌入。具体而言,该方法利用LLM从用户-物品交互对中推理出潜在的交互意图和因果关系,并将其表示为中间“属性”节点,从而构建一个增强的用户-属性-物品异构图。为了有效建模图中的异构关系,作者进一步提出了自适应关系权重图卷积模块。实验表明,该框架作为模型无关的增强模块,在多个基准数据集和CF骨干模型上均带来显著性能提升(NDCG@5最高提升21.9%),并在冷启动和缓解图过平滑问题上展现出优势,为LLM与CF的结合提供了深度启发。

4. IntRR: A Framework for Integrating SID Redistribution and Length Reduction

🔗 原文: https://arxiv.org/abs/2602.20704v1
🏷️ 来源: 🏭 工业界 | Alibaba
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 解决生成式推荐中语义ID的静态瓶颈与效率问题,提出动态重分配与递归压缩框架,性能与效率双提升。
📝 摘要: 本文针对生成式推荐中语义ID的两个核心痛点——静态索引与推荐目标失准、序列扁平化导致计算爆炸——提出了IntRR框架。该框架通过递归分配网络,利用物品唯一ID作为协同锚点,动态地重分配层次化码本各层的语义权重,使SID能适应复杂的用户交互模式。同时,它将SID的层次结构处理内化为递归过程,将每个物品压缩为单个token表示,避免了将SID展开为长序列。实验证明,该方法在多个数据集上相比基线在推荐准确性上有显著提升,并实现了训练吞吐量最高75%的提升和推理延迟最高2.93倍的降低,有效解决了生成式推荐落地的关键瓶颈。

5. PRECTR-V2:Unified Relevance-CTR Framework with Cross-User Preference Mining, Exposure Bias Correction, and LLM-Distilled Encoder Optimization

🔗 原文: https://arxiv.org/abs/2602.20676v1
🏷️ 来源: 🏭 工业界 | Alibaba
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: 阿里搜索排序的工业实践,统一相关性-CTR建模,线上GMV+3.18%,方法务实有启发。
📝 摘要: 本文是搜索排序中统一相关性-CTR建模框架的迭代工作,旨在解决冷启动个性化、曝光偏差和架构对齐三个实际工业问题。具体地,它通过挖掘特定查询下的全局用户行为来缓解低活用户的冷启动问题;通过向正样本嵌入注入噪声并重构其相关性标签来构造硬负样本,以校正曝光偏差;同时,通过从LLM蒸馏知识来预训练一个轻量级Transformer编码器,替代原有的冻结BERT模块,实现端到端优化。该务实的方法在阿里巴巴闲鱼平台的线上A/B测试中取得了人均订单数+1.39%和GMV+3.18%的显著收益,已全量上线,为搜索排序的工业实践提供了可靠参考。

6. From Logs to Language: Learning Optimal Verbalization for LLM-Based Recommendation in Production

🔗 原文: https://arxiv.org/abs/2602.20558v1
🏷️ 来源: 🤝 产学合作 | Netflix, University of Georgia
⭐ 评分: ⭐⭐⭐⭐ (4/5)
🎯 推荐理由: Netflix提出可学习的verbalization框架,用RL优化LLM推荐输入,显著提升新内容发现效果。
📝 摘要: 本文聚焦于LLM-as-Rec范式下的一个关键瓶颈:如何将结构化的用户交互日志有效地转化为自然语言输入。作者提出一个数据驱动的、可学习的verbalization框架,使用强化学习(以推荐准确性为训练信号)来训练一个verbalization智能体,使其能够自动过滤噪声、融合相关元数据并重组信息,从而将原始日志优化为适合LLM推理的文本上下文。在大规模工业流媒体数据集上的实验表明,学习到的verbalization策略相比固定的模板拼接方法,在新内容发现的Recall@1指标上带来了高达92.9%的相对提升,并涌现出用户兴趣摘要、噪声去除等有效策略,为构建高效的LLM推荐器提供了重要的输入工程方案。

7. Multi-Vector Index Compression in Any Modality

🔗 原文: https://arxiv.org/abs/2602.21202v1
🏷️ 来源: 🎓 学术界 | Johns Hopkins University
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 提出注意力引导聚类方法,高效压缩多模态检索中的多向量索引,在多个基准上保持性能的同时显著降低存储成本。
📝 摘要: 本文研究多模态检索中“late interaction”范式(如ColBERT)面临的多向量索引存储与计算成本高昂的问题。作者提出了一种新颖的注意力引导聚类方法,该方法引入可学习的“通用查询”token来引导注意力机制,识别文档中最具语义显著性的区域作为聚类中心,并进行加权聚合,从而在固定的向量预算下生成紧凑的文档表示。该方法在文本、视觉文档和视频等多个检索基准上进行了验证,结果表明其能有效压缩索引规模(如将视频表示从上千token压缩至32个),同时保持甚至超越未压缩基线的检索性能,为解决大规模多模态召回系统的工程瓶颈提供了扎实的技术思路。

8. E-MMKGR: A Unified Multimodal Knowledge Graph Framework for E-commerce Applications

🔗 原文: https://arxiv.org/abs/2602.20877v1
🏷️ 来源: 🎓 学术界 | UNIST
⭐ 评分: ⭐⭐⭐ (3/5)
🎯 推荐理由: 将多模态知识图谱引入电商推荐,构建统一物品表示支持多任务,方法扎实有效。
📝 摘要: 本文提出为电商场景构建一个专属的多模态知识图谱,并通过图神经网络传播和知识图谱损失来学习统一的物品表示。该表示融合了商品的图像、描述、评论及LLM生成的摘要等多种模态信息,旨在提供一个共享的语义基础,以同时支持推荐和搜索等多种下游任务。在多个真实的亚马逊产品数据集上的实验表明,该方法学习到的表示能有效提升推荐和搜索的性能,在Recall@10和MAP@10指标上分别取得了最高10.18%和21.72%的提升,验证了其通过多模态知识图谱学习通用物品表示的有效性和可扩展性。
  • 推荐系统
  • 日报
  • 推荐算法日报 - 2026-02-26推荐算法日报 - 2026-02-24
    Loading...