生成式推荐 (Generative Recommendation) 工业界深度 Survey

覆盖 101 篇核心论文(58 篇工业界 + 43 篇学术精选),系统梳理 2022-2026 年生成式推荐从学术概念到工业主流范式的完整技术演进。以 TIGER、HSTU、OneRec 等里程碑论文为核心,深入分析 Semantic ID、模型架构、训练范式、推理增强、长序列建模等关键技术方向。

算法工程师的核心能力是什么

谜底就在谜面上。 "算法工程师",做个语法分析,这是个偏正结构。"算法"是定语,"工程师"才是中心语。定语修饰中心语,中心语决定你的身份。 算法工程师核心能力就是"工程能力"。 就像策略产品、用户产品、B端产品——核心都是产品能力。前面的定语告诉你在哪个领域工作,后面的中心语才是你安身立命的东西。 定语决定你的赛道,中心语决定你的天花板。

算法组织熵减与Scaling Law的悖论

我们先思考下,一个公司组织里,为什么需要 Leader,需要层级?任何一个超过几十人的组织都需要架构设计。这件事如此普遍,以至于我们很少追问:为什么需要组织架构?组织架构本质上在解决什么问题? 表面上看,组织架构是在划分职责、分配资源、明确汇报关系。但如果往下挖一层,会发现一个有趣的视角:一个组织本质上是一个分布式信息处理系统。 外部信息进来,内部处理,输出决策和行动。组织架构定义的,其实是信息如何在这个系统里流动——谁产生信息,谁消费信息,信息经过哪些节点,在哪里被过滤,在哪里被聚合。

2026:推荐系统 All-In Transformer 的元年

2017 年,Ilya Sutskever 读到《Attention Is All You Need》时,立即意识到”这就是我们需要的一切”。OpenAI 随即放弃了 RNN/LSTM 路线,全面转向 Transformer,催生出整个 GPT 系列。Transformer 的并行能力让他们得以实现一直相信的 Scaling 路径。八年后的今天,推荐系统终于走到了同样的路口。 2024 年之前,推荐领域有了 HSTU、TIGER 这样的工作,但大多数团队还在观望。2025 年,我观察到一个明显的转变:大家开始认真地把排序模型 Dense Scaling Up,搞生成式召回和端到端推荐。这很像 2017 年——当时大家忙着把 LR/GBDT/FM 切换到 Deep Model 和双塔,切换过程持续了一两年,之后再没人回头。我的判断是,2026 年将是推荐系统 All-In Transformer 的一年,不改变就落后。

从RL比SFT更不容易遗忘到反观推荐系统缺陷

最近陆续有了一些研究LLM中RL相比SFT更不容易造成灾难性遗忘的工作,清晰地支出是RL的On-Policy特性带来了参数的稳定,而SFT将模型参数推向与预训练分布差异很大的方向,导致了遗忘问题(如图,遗忘问题的衡量就是随着新任务的学习,旧任务的平均表现下降)。 这一清晰地结论,点亮了我对很多事情的理解,推荐系统原来孤立的问题也有可能连成一片,有了更深层次的支撑。 本文包括: • LLM领域,RL比SFT更不容易造成灾难性遗忘的工作解读 • 推荐系统是标准的off-policy 监督学习,(猜想)许多缺陷也应当由此而生

RecSys Weekly 2026-W11

Two technical threads dominate Week 11 of 2026 (March 8–14) in recommendation system research. First, generative recommendation (GR) is undergoing full-stack optimization — transitioning from "making it work" to "making it work well, fast, and fairly" — Netflix/Meta's exponential reward-weighted SFT addresses post-training alignment, LinkedIn's causal attention reformulation halves sequence length, Kuaishou's FP8 quantization reduces OneRec-V2 inference latency by 49%, and Alibaba's differentiable geometric indexing eliminates long-tail bias at its root. Five papers advance GR's industrial maturity across five dimensions. Second, LLM-based recommendation is shifting from "single-pass inference" toward an agentic paradigm — Meta's VRec inserts verification steps into reasoning chains, Meituan's RecPilot replaces traditional recommendation lists with a multi-agent framework, USTC's TriRec introduces tri-party coordination for the first time, and RUC/JD's RecThinker enables autonomous tool invocation.

Recsys Weekly 2026-W10

Industrial recommendation ranking shifts to systematic scaling engineering. Alibaba's SORT achieves orders +6.35%, Kuaishou's FlashEvaluator and SOLAR optimize evaluator and attention efficiency, ByteDance's HAP enables adaptive compute budget allocation. Generative recommendation enters objective alignment phase. 36 papers analyzed.

推荐算法日报 - 2026-03-06

多模态融合走向实用化:工业界开始系统性地将视觉信息深度整合到推荐核心链路(如召回),超越传统的文本主导模式,通过领域微调、多阶段对齐等具体技术提升融合效果,以应对电商等富媒体场景的需求。; 系统工程的科学化与可预测性:学术界开始将“缩放定律”等系统性分析方法引入推荐系统,旨在为模型规模、数据量与性能之间的关系建立可预测的模型,为重排等关键阶段的资源投入提供科学决策依据,降低试错成本。; 🔧 偏差治理的精细化与动态化:针对序列推荐中的曝光与选择偏差问题,研究从静态的因果纠偏方法向动态、时序感知的

推荐算法日报 - 2026-03-05

工业级Transformer排序系统优化:今日多篇工业界论文聚焦于将Transformer架构深度适配并优化至推荐系统的排序阶段。核心挑战在于解决工业场景特有的高特征稀疏性、低标签密度和严苛的延迟要求。阿里巴巴的SORT和字节跳动的HAP分别从精排和粗排角度,通过请求中心样本组织、局部注意力、自适应计算预算分配等系统化设计,实现了业务指标显著提升与推理效率的同步优化,标志着Transformer在工业推荐中从“可用”迈向“高效可用”的新阶段。; 多阶段推荐中的精细化样本与计算管理:推荐系统多阶段

推荐算法日报 - 2026-03-04

生成式推荐走向全链路深度集成:今日多篇论文聚焦生成式推荐范式,核心趋势从单一模块优化转向全链路协同。腾讯的OneRanker实现了生成与排序的架构级融合,清华的APAO则从训练目标层面弥合生成与推理的鸿沟,标志着该领域正从“能用”向“好用、高效”演进。; 工业界聚焦大模型推理效率与系统工程:面对LLM/Transformer带来的计算挑战,工业界论文普遍关注效率优化。快手的FlashEvaluator和SOLAR分别从跨序列并行评估和低秩注意力分解入手,在保证效果的同时显著降低延迟与资源消耗,体

推荐算法日报 - 2026-03-03

大模型驱动的推荐系统优化:今日多篇论文聚焦于利用大语言模型(LLM)和多模态大语言模型(MLLM)解决推荐系统核心问题。从阿里巴巴的LaSER框架将推理能力内化到稠密检索,到小红书IDProxy用MLLM生成代理嵌入解决冷启动,再到百度与中科院合作优化多模态嵌入预训练,大模型正从内容理解、表示学习到推理决策,深度融入召回与排序环节。; 工业级验证与系统约束考量:工业界论文展现出对生产环境约束的深刻洞察。Dell的RAG部署实证表明,在固定检索深度和延迟约束下,单纯的召回提升可能无法转化为端到端收