From Next-One to Next-N:这才是推荐系统的范式改变

推荐系统 20 年来方法换了六七轮,但问题定义从未改变——始终是预测下一个 item。缺多样性、缺发现性、规则泛滥,根源都在这里。真正的范式改变不是换方法,而是重新定义问题:从 Next One 到 Next N。

生成式推荐 (Generative Recommendation) 工业界深度 Survey

覆盖 101 篇核心论文(58 篇工业界 + 43 篇学术精选),系统梳理 2022-2026 年生成式推荐从学术概念到工业主流范式的完整技术演进。以 TIGER、HSTU、OneRec 等里程碑论文为核心,深入分析 Semantic ID、模型架构、训练范式、推理增强、长序列建模等关键技术方向。

算法工程师的核心能力是什么

谜底就在谜面上。 "算法工程师",做个语法分析,这是个偏正结构。"算法"是定语,"工程师"才是中心语。定语修饰中心语,中心语决定你的身份。 算法工程师核心能力就是"工程能力"。 就像策略产品、用户产品、B端产品——核心都是产品能力。前面的定语告诉你在哪个领域工作,后面的中心语才是你安身立命的东西。 定语决定你的赛道,中心语决定你的天花板。

算法组织熵减与Scaling Law的悖论

我们先思考下,一个公司组织里,为什么需要 Leader,需要层级?任何一个超过几十人的组织都需要架构设计。这件事如此普遍,以至于我们很少追问:为什么需要组织架构?组织架构本质上在解决什么问题? 表面上看,组织架构是在划分职责、分配资源、明确汇报关系。但如果往下挖一层,会发现一个有趣的视角:一个组织本质上是一个分布式信息处理系统。 外部信息进来,内部处理,输出决策和行动。组织架构定义的,其实是信息如何在这个系统里流动——谁产生信息,谁消费信息,信息经过哪些节点,在哪里被过滤,在哪里被聚合。

2026:推荐系统 All-In Transformer 的元年

2017 年,Ilya Sutskever 读到《Attention Is All You Need》时,立即意识到”这就是我们需要的一切”。OpenAI 随即放弃了 RNN/LSTM 路线,全面转向 Transformer,催生出整个 GPT 系列。Transformer 的并行能力让他们得以实现一直相信的 Scaling 路径。八年后的今天,推荐系统终于走到了同样的路口。 2024 年之前,推荐领域有了 HSTU、TIGER 这样的工作,但大多数团队还在观望。2025 年,我观察到一个明显的转变:大家开始认真地把排序模型 Dense Scaling Up,搞生成式召回和端到端推荐。这很像 2017 年——当时大家忙着把 LR/GBDT/FM 切换到 Deep Model 和双塔,切换过程持续了一两年,之后再没人回头。我的判断是,2026 年将是推荐系统 All-In Transformer 的一年,不改变就落后。

从RL比SFT更不容易遗忘到反观推荐系统缺陷

最近陆续有了一些研究LLM中RL相比SFT更不容易造成灾难性遗忘的工作,清晰地支出是RL的On-Policy特性带来了参数的稳定,而SFT将模型参数推向与预训练分布差异很大的方向,导致了遗忘问题(如图,遗忘问题的衡量就是随着新任务的学习,旧任务的平均表现下降)。 这一清晰地结论,点亮了我对很多事情的理解,推荐系统原来孤立的问题也有可能连成一片,有了更深层次的支撑。 本文包括: • LLM领域,RL比SFT更不容易造成灾难性遗忘的工作解读 • 推荐系统是标准的off-policy 监督学习,(猜想)许多缺陷也应当由此而生

推荐算法日报 - 2026-05-14

[LLM Agent 与推荐系统深度融合]:今日多篇论文聚焦于将LLM Agent的能力引入推荐系统,从简单的序列匹配转向交互式、推理驱动的推荐。TwiSTAR通过自适应推理分配(快慢思考)和工具调用(检索、排序、推理)来提升生成式推荐的精度与效率;RecRM-Bench则系统性地定义了Agent推荐系统的多维奖励建模(指令遵循、事实一致性、相关性、行为预测),为RL优化提供了标准化基准。这表明,将LLM的规划、推理和工具使用能力融入推荐全链路是当前的重要趋势。; [推荐系统中的偏差识别与去偏方

推荐算法日报 - 2026-05-13

[LLM与推荐系统的深度融合]:今日多篇论文聚焦于将LLM能力注入推荐系统,从生成式推荐(LASAR)、多模态理解(ByteDance框架)到个性化知识发现(PDR)和组推荐(AgentGR),LLM正从辅助工具演变为推荐核心引擎。趋势在于利用LLM的推理和语义理解能力,解决传统模型在细粒度偏好建模、复杂决策模拟和内容理解上的瓶颈。; [系统-模型协同优化成为主流]:Meta的LoKA和Xiaohongshu的CCD-Level框架表明,单纯优化模型或系统已无法满足大规模部署需求。LoKA通过F

推荐算法日报 - 2026-05-12

LLM 驱动推荐系统进入精细化阶段:今日多篇论文聚焦如何更高效、更精准地将LLM融入推荐流程。从利用LLM生成可解释的用户画像(BLUE),到用强化学习(GRPO)优化检索策略(RRCM),再到双通道解耦语义与行为(DCGL),趋势已从“能否用LLM”转向“如何用好LLM”,尤其关注稀疏场景和跨域泛化。; 对现有基准评估体系的反思与重构:多篇论文揭示了当前推荐基准的局限性。Meta的论文通过简单图启发式方法,指出许多基准存在“捷径可解性”,模型的高分可能并非源于其声称的复杂能力。同时,TRACE

推荐周报 2026-W19

本周 22 篇论文里能看出两条主线:生成式推荐继续在 Semantic ID 这一层做深耕,检索 / agentic search 这条线则在重写检索接口本身。另有三篇围绕 RAG 工程化(合成表格扩散、自动化 RAG 管线、生产级数据层),列入论文速览的"其他"部分。 生成式推荐侧四篇论文把更多结构化信号——商业价值、地理坐标、协同信号、长尾边界——直接压进 Semantic ID 这一层。腾讯(微信视频号广告)的 UniVA 做到 SID/decoding/serving 三段同时注入 eCPM 信号,离线 Hit Rate@100 +37.04%、线上 A/B GMV +1.5%;UCSD × Snap 的 Latte 从理论上证明自回归 SID 解码树会把语义近的 item 强行拉到一起,再给出在 token 前缀挂 latent 的低成本修补,NDCG@10 +3.45%。 检索侧的故事更激进。一周之内出现三种"重写检索接口"的反命题:Meta Superintelligence Labs 的 SIRA 把多轮 agent 探索压成一次 LLM-corpus 双向扩展的 BM25;Texas A&M / Stanford / UWashington 等 19 作者的 DCI 直接删掉 retriever,让 Claude Sonnet 4.6 用 grep + bash 在原始语料上调查(BrowseComp-Plus accuracy 从 69.0% 升到 80.0%、API 成本降 29.4%);UC Berkeley 的 T3 把 RAG 的"corpus"从文档换成 LLM 思维轨迹,AIME 上给 Gemini-2.5-Flash 注水 +56.3%。MIT 同期放出 OBLIQ-Bench,把"为什么必须改接口"这件事量化——传统 BM25 / dense / late interaction 在隐含意图查询上几乎全部接近 0 NDCG@10。 工业精排和召回侧维持"先拆瓶颈、再谈结构"的节奏。Meta Ads 的 IEFF 把特征下线从 3-6 个月重训压到不需重训,效率类 rollout 提速 5×;阿里淘天的 RecGPT-Mobile 把 next-query LLM 搬到手机端;中科大 × 美团的 DynamicPO 揭示多负样本 DPO 的"偏好优化坍塌"现象并给出梯度抑制的理论解释。整体趋势是:算法侧追求"动态自适应目标",工程侧追求"可回滚的弹性接口"。

推荐算法日报 - 2026-05-09

生成式推荐进入工业深水区:今日多篇论文(腾讯UniVA、Snap Latte)聚焦生成式推荐在工业场景的落地挑战。核心矛盾从“如何生成”转向“如何对齐商业价值”和“如何突破表达能力瓶颈”。UniVA提出全链路价值对齐框架,Latte则从理论层面揭示自回归语义ID的结构性限制,标志着该领域从概念验证走向工程优化。; 智能体(Agent)重塑搜索与推荐范式:Meta的SIRA和Waterloo的DCI分别从“单次检索替代多轮探索”和“用grep替代向量检索”两个角度,重新定义了检索接口。ByteDa

推荐算法日报 - 2026-05-08

LLM推荐走向端侧与列表级优化:今日两篇论文分别从端侧部署(RecGPT-Mobile)和列表级对齐(BLADE)两个方向推进LLM在推荐系统中的应用。前者解决端侧推理成本与实时性,后者突破静态对齐的性能上限,共同指向LLM推荐从“能用”到“高效、精准”的落地路径。; 生成式推荐进入“软路由”时代:CapsID用胶囊路由替代传统硬量化,解决了语义ID生成中的边界坍塌和误差传播问题,在35M级工业数据集上召回提升9.6%。这标志着生成式推荐的核心瓶颈从模型架构转向了tokenizer设计,软路由+