推荐算法日报 - 2026-05-07

生成式检索与RAG的工业化落地:今日多篇论文聚焦于将生成式范式(如LLM)应用于检索系统,从GenPOI的生成式POI检索到AutoRAGTuner的RAG管线自动化,再到利用思考轨迹(Thinking Traces)作为RAG语料库,表明业界正积极探索用生成式模型替代或增强传统检索流程,以解决复杂查询和上下文建模问题。; 从“检索”到“系统”的全链路优化:工业界论文(如Walmart的Unified Data Layer、Ant Group的AutoRAGTuner)不再局限于单一算法模块,而

推荐算法日报 - 2026-05-06

频域分析与序列建模融合:今日多篇论文探索了在频域(FEDIN)或连续时间域(BST-CDSR)建模用户行为,以捕捉传统时序方法难以处理的周期性模式和兴趣衰减,为序列推荐提供了新的信号增强思路。; LLM 从“生成”走向“评估与攻击”:LLM 的应用场景从内容生成扩展到模型评估与安全测试。CRAFT 利用 LLM 生成对抗样本来攻击排序模型,而 BST-CDSR 则利用 LLM 提取时间语义,展示了 LLM 在推荐系统攻防与特征工程中的潜力。; ⚖️ 公平性与评估稳定性成为焦点:工业界和学术界均开

推荐算法日报 - 2026-05-05

工业级系统优化与效率提升:今日多篇工业界论文(Meta、IKEA)聚焦于在不牺牲模型效果的前提下,通过系统级创新(如IEFF的弹性特征衰减)或训练数据优化(如IKEA的结构化负采样)来提升大规模推荐系统的迭代效率和资源利用率。这反映了工业界从追求模型复杂度转向关注工程效率与落地可行性的趋势。; LLM与推荐系统的深度融合与挑战:多篇论文(DynamicPO、IKEA、RIR综述)探讨了LLM在推荐系统中的应用,但同时也揭示了新的挑战,如偏好优化崩溃、零点击行为对线上效果的制约,以及LLM作为信息

推荐周报 2026-W18

本周 32 篇论文里有几条主线在同时推进。一是生成式推荐范式继续在工业链路里深挖——快手一家就贡献三篇,从 list-wise 重排到召回-排序统一再到 codebook 自适应,配合美团/英伟达的 KV cache serving 和华为的 RL 信号修复,把"生成式推荐能用,但 serving、RL、inference 顶不住"这条线一次性补齐。二是 LLM 推荐器的训练目标被拆开重做——Google 在 H-consistency 框架下证明 DPO 标准代理损失不一致并提出 SA-DPO,Meta 证明 GRPO+二元奖励等价于 AUC 优化并提出 Windowed Partial AUC,配合美团的潜在推理多因子分解和稀疏场景下"对齐够不够"的争论,质疑了"一个对齐目标走到底"的主流做法。三是 LLM 智能体在推荐系统的角色边界正在收敛——LinkedIn 的 schema-aligned 长期语义记忆、AgenticRecTune 的多智能体配置调优、Snap 的端到端趋势检测,三个工业落地都把 LLM 放在配置/记忆/趋势这类延迟不敏感、语义价值高的位置上,绕开了精排召回的实时性瓶颈。 基础设施侧 Meta 同时放出两篇系统论文——一篇 versioned late materialization 砍训练数据冗余,一篇 FreeScale 砍 256 卡分布式的计算气泡,明确支撑 HSTU/ULTRA-HSTU 的序列长度激进 scaling。LLM-检索-重排链路上则形成明显的"压缩派"共识:ResRank 把 passage 压成单 token、UAE 把 utility 信号蒸馏进 embedding、RRK 用多 token 压缩,统一指向"把推理预算从过 LLM 生成压到过一次相似度"。

推荐算法日报 - 2026-05-02

LLM 加速与效率优化成为核心议题:今日多篇论文聚焦 LLM 在推荐系统中的推理效率问题。从生成式推荐的推测解码加速(PAD-Rec),到多向量检索的聚类与索引优化(TACHIOM),再到属性图构建中的 token 节省(Amazon),工业界和学术界都在积极探索如何在不牺牲效果的前提下,让 LLM 推荐系统跑得更快、更省。; 多智能体与自动化系统配置优化兴起:以 ByteDance 的 AgenticRecTune 为代表,利用 LLM 驱动的多智能体框架自动探索和优化推荐系统的全链路配置(预

推荐算法日报 - 2026-05-01

LLM Agent 与推荐系统的深度融合:今日多篇论文(LinkedIn HLTM、ReaLM-Retrieve、FLR、ProMax)聚焦于如何利用LLM增强推荐系统。趋势从简单的“LLM生成文本”转向构建复杂的“推理-记忆-检索”框架,例如层次化语义记忆、自适应检索时机、多因子潜在推理等,旨在提升个性化、可解释性和推理能力。; 动态建模与多模态的精细化:推荐系统正从静态图或粗粒度时序建模,转向更精细的动态建模。TimeMM 通过时间谱滤波捕捉用户兴趣的非平稳演化,并区分视觉与文本模态的时序敏

推荐算法日报 - 2026-04-30

生成式推荐全面渗透重排与召回:今日多篇论文(GloRank、RecoChain)将推荐问题从传统的“索引选择”或“向量检索”范式,转向基于语义ID的“Token生成”范式。这标志着生成式推荐正从单一的召回/排序模块,向统一全链路的架构演进,有望从根本上改变推荐系统的设计哲学。; 工业界聚焦训练基础设施效率革命:Meta的论文揭示了超长用户序列训练中“数据冗余”这一被忽视的瓶颈,并提出“延迟物化”范式。这表明当模型架构(如HSTU)接近天花板时,数据基础设施的优化成为提升模型效果的关键杠杆,是工业

推荐算法日报 - 2026-04-29

生成式推荐进入精细化阶段:今日多篇论文(Pro-GEO, AdaSID, BITRec)聚焦于生成式推荐的核心表示——语义ID(SID)的优化。从单纯追求紧凑性,转向解决地理约束、多模态碰撞、行为强度差异等实际问题,标志着生成式推荐正从概念验证走向工业级精细化落地。; 系统与安全成为推荐算法新战场:随着模型复杂度提升,工业界开始关注推理效率(MTServe的层次化缓存)和分布式训练(FreeScale的计算气泡消除)。同时,LLM推荐系统的安全漏洞(PUDA攻击框架)也首次被系统性研究,提示算法

推荐算法日报 - 2026-04-28

[生成式推荐与强化学习的深度融合]:今日多篇论文聚焦于如何更高效地训练生成式推荐模型。华为的ReCast和Meta的Objective Shaping分别从学习信号构造和优化目标对齐两个角度,揭示了RL在生成式推荐中的核心瓶颈与解决方案,并都取得了显著的线上或离线性能提升。这表明,RL+LLM推荐正从“能用”走向“好用”,精细化训练信号设计成为关键。; [检索与重排的端到端统一]:Alibaba的ResRank和Layer 6 AI的UAE都致力于打破检索与重排的边界。ResRank通过残差压缩

推荐周报 2026-W17

工业 backbone 的 scaling 主线进入分化期。 本周三篇工业重磅都不再纠结"堆参数",而是从不同侧面回答"参数堆到一定规模后,下一个瓶颈在哪里":腾讯 RankUp 把"表示有效秩坍缩"作为一阶问题攻;阿里 LoopCTR 把训练算力和参数量解耦——共享层递归循环吃训练算力,推理时零循环;美团 SIF 把 token 化粒度从 item 上移到 sample 级,绕开序列与非序列特征的结构异构鸿沟。三家三种解法,但共同前提一致——serving 成本不可破,加法都加在训练侧或表示侧。 LLM 接精排的初期收益期在收尾,进入分层精修阶段。 阿里 MARC 给出"中层表示更优(MRA)"的反直觉观察,并把 LLM 显式拆成"表示学习 + 压缩 + 任务适配"三模块;华东师大 TF-LLMER 从优化曲率切入,定位 LLM 表示与协同 embedding 之间的范数差异和聚类角度错位是训练损失下不去的根因,并在实验中把 Yelp 训练损失约降低 30%;LLMAR 走完全免调优路线,把 nDCG@10 在工业 B2B 稀疏场景拉高 54.6%、每千用户推理成本 $1。理论上要解释训练为何不收敛,工程上要回答缓存哪一层、调不调,部署上要算清每千用户多少钱——三类问题都有了具体答案。 生成式与长序列推荐补足理论债,并开始挑战"候选无关用户表示"假设。 快手对生成式推荐核心训练目标做了形式化证明——k-token AR-NTP 与全词表 MLE 在 item ↔ k-Token 双射下严格等价,OneRec 那条流水线的损失函数选择第一次有了理论锚点。Meta 的 Mixture of Sequence 用主题感知 MoE 把长序列按主题拆成子序列,挑战的是"先压缩再打分"的传统思路;CaST-POI 则把候选当 query 去 attend 用户历史,跳出了"候选无关用户表示"的隐含假设——两条路线都在重写序列读取方式。

推荐算法日报 - 2026-04-25

[生成式与扩散模型进入推荐核心]:今日多篇论文探索了生成式范式在推荐系统中的应用,包括将扩散模型用于Learning to Rank(DenoiseRank)、以及利用语义ID(SemanticID)进行生成式推荐。这标志着推荐系统正从传统的判别式模型向生成式模型演进,但多数工作仍处于学术探索阶段,工业落地尚需验证。; [长序列与复杂用户行为建模成为焦点]:针对用户行为序列中的兴趣漂移(Session Hopping)和噪声问题,出现了主题感知MoE(MoS)和小波包引导图增强(WPGRec)等

推荐算法日报 - 2026-04-24

LLM 增强推荐进入深水区:从“堆特征”到“解优化”:今日两篇论文(TF-LLMER 和可治理个性化观点文)表明,业界不再满足于简单地将 LLM 特征注入推荐模型。研究焦点已转向 LLM 表示与推荐骨干网络之间的优化冲突(如范数差异、角度聚类不匹配)以及用户表征的可治理性(透明、可移植、可控制)。这预示着 LLM-for-Rec 正从“工程堆叠”阶段迈向“理论分析与系统设计”阶段。; 检索评估与加速迎来新范式:从“精确匹配”到“语义感知”:Google 提出的 Semantic Recall 和