RecSys Weekly 2026-W11

Two technical threads dominate Week 11 of 2026 (March 8–14) in recommendation system research. First, generative recommendation (GR) is undergoing full-stack optimization — transitioning from "making it work" to "making it work well, fast, and fairly" — Netflix/Meta's exponential reward-weighted SFT addresses post-training alignment, LinkedIn's causal attention reformulation halves sequence length, Kuaishou's FP8 quantization reduces OneRec-V2 inference latency by 49%, and Alibaba's differentiable geometric indexing eliminates long-tail bias at its root. Five papers advance GR's industrial maturity across five dimensions. Second, LLM-based recommendation is shifting from "single-pass inference" toward an agentic paradigm — Meta's VRec inserts verification steps into reasoning chains, Meituan's RecPilot replaces traditional recommendation lists with a multi-agent framework, USTC's TriRec introduces tri-party coordination for the first time, and RUC/JD's RecThinker enables autonomous tool invocation.

Recsys Weekly 2026-W10

Industrial recommendation ranking shifts to systematic scaling engineering. Alibaba's SORT achieves orders +6.35%, Kuaishou's FlashEvaluator and SOLAR optimize evaluator and attention efficiency, ByteDance's HAP enables adaptive compute budget allocation. Generative recommendation enters objective alignment phase. 36 papers analyzed.

推荐算法日报 - 2026-03-06

多模态融合走向实用化:工业界开始系统性地将视觉信息深度整合到推荐核心链路(如召回),超越传统的文本主导模式,通过领域微调、多阶段对齐等具体技术提升融合效果,以应对电商等富媒体场景的需求。; 系统工程的科学化与可预测性:学术界开始将“缩放定律”等系统性分析方法引入推荐系统,旨在为模型规模、数据量与性能之间的关系建立可预测的模型,为重排等关键阶段的资源投入提供科学决策依据,降低试错成本。; 🔧 偏差治理的精细化与动态化:针对序列推荐中的曝光与选择偏差问题,研究从静态的因果纠偏方法向动态、时序感知的

推荐算法日报 - 2026-03-05

工业级Transformer排序系统优化:今日多篇工业界论文聚焦于将Transformer架构深度适配并优化至推荐系统的排序阶段。核心挑战在于解决工业场景特有的高特征稀疏性、低标签密度和严苛的延迟要求。阿里巴巴的SORT和字节跳动的HAP分别从精排和粗排角度,通过请求中心样本组织、局部注意力、自适应计算预算分配等系统化设计,实现了业务指标显著提升与推理效率的同步优化,标志着Transformer在工业推荐中从“可用”迈向“高效可用”的新阶段。; 多阶段推荐中的精细化样本与计算管理:推荐系统多阶段

推荐算法日报 - 2026-03-04

生成式推荐走向全链路深度集成:今日多篇论文聚焦生成式推荐范式,核心趋势从单一模块优化转向全链路协同。腾讯的OneRanker实现了生成与排序的架构级融合,清华的APAO则从训练目标层面弥合生成与推理的鸿沟,标志着该领域正从“能用”向“好用、高效”演进。; 工业界聚焦大模型推理效率与系统工程:面对LLM/Transformer带来的计算挑战,工业界论文普遍关注效率优化。快手的FlashEvaluator和SOLAR分别从跨序列并行评估和低秩注意力分解入手,在保证效果的同时显著降低延迟与资源消耗,体

推荐算法日报 - 2026-03-03

大模型驱动的推荐系统优化:今日多篇论文聚焦于利用大语言模型(LLM)和多模态大语言模型(MLLM)解决推荐系统核心问题。从阿里巴巴的LaSER框架将推理能力内化到稠密检索,到小红书IDProxy用MLLM生成代理嵌入解决冷启动,再到百度与中科院合作优化多模态嵌入预训练,大模型正从内容理解、表示学习到推理决策,深度融入召回与排序环节。; 工业级验证与系统约束考量:工业界论文展现出对生产环境约束的深刻洞察。Dell的RAG部署实证表明,在固定检索深度和延迟约束下,单纯的召回提升可能无法转化为端到端收

推荐周报 2026-W09

本周共收录 23 篇推荐系统相关论文,其中 5 分论文 5 篇,4 分 10 篇,3 分 8 篇,整体质量出色。Generative Recommendation(生成式推荐) 是本周最显著的技术主线,6 篇论文直接聚焦于此,涵盖 Semantic ID 编码、受限解码优化、广告场景部署和多任务统一框架。另一条主线是 LLM 与推荐系统的融合范式——"LLM-as-Rec"(LLM 作为推荐骨干)与"LLM-for-Rec"(LLM 辅助推荐)两条路径本周都有重要进展。工业部署论文占比极高(6 篇含 Online A/B 测试),来自 AliExpress、快手、Apple App Store 等一线平台。

推荐算法日报 - 2026-03-01

📭 今日无新论文:今日未收录新的推荐系统相关论文,无法进行趋势分析。

推荐系统线上能跑多大的模型

本文不是从系统优化角度谈复杂的模型的部署和优化问题,而是从行业成本角度,看线上推理多复杂的模型是可以满足成本及ROI要求的。 做一个假设: • 电商推荐行业,主要是更熟悉成本核算 • 部署标准的Transformer作为排序模型,参考OneTrans结构 • 参数规模对齐qwen2的系列模型,更直观看看能跑哪个尺寸

Talent Dilution Roofline:你的算法团队可能不需要再招人了?

Roofline model是高性能计算领域用来分析程序性能瓶颈的一个直观模型,因为画出来像一个屋顶形状而得名。如下图,横坐标是算法的计算强度Flop/Byte(算法的浮点计算数除以内存访问量),纵坐标是算力Flop/s,它描述的是如果算法计算强度提升算力线性提升(Memory-Bound),直到算数强度超过硬件的拐点,之后算力逼近硬件的上限(Compute-Bound)。它核心回答了:你的程序到底受什么限制——计算能力还是内存带宽?应该优化哪里?

OneTrans 推荐系统对齐序列处理与特征交叉

从精排切换成深度学习以来,工业界一直会把排序的模型结构研究切分成基本的两部分,序列处理和特征交叉,甚至有一些公司的排序组,下面都拆成两个Team分别处理行为序列和特征交叉。从最早的时候,比如序列用DIN来处理,序列就被压成了一个或多个向量表征,再参与与其他特征的交叉。我们可以理解成MLP(concat(DIN, Features)),发展到今天大多数的模型研究,还是分立地把MLP换成DCN,增加个LHUC,复杂化为Rank Mixer或Transformer,把DIN叠加MHA,直接换成Transformer,可以写成RankMixer(concat(Transformer, Features))。 从MLP(concat(DIN, Features))到RankMixer(concat(Transformer, Features)),本质没有变,就是序列处理和特征交叉是一个隐式的两阶段处理,序列被压缩到Vector Space才和特征发生交叉。而LLM的有趣之处,就是在Next Token Prediction利用到的交叉发生在词序列的Token Space之中,它能启发推荐排序模型的,就是每一个特征的交叉应该发生在用户序列的Token Space之中。