推荐算法日报 - 2026-05-12

LLM 驱动推荐系统进入精细化阶段:今日多篇论文聚焦如何更高效、更精准地将LLM融入推荐流程。从利用LLM生成可解释的用户画像(BLUE),到用强化学习(GRPO)优化检索策略(RRCM),再到双通道解耦语义与行为(DCGL),趋势已从“能否用LLM”转向“如何用好LLM”,尤其关注稀疏场景和跨域泛化。; 对现有基准评估体系的反思与重构:多篇论文揭示了当前推荐基准的局限性。Meta的论文通过简单图启发式方法,指出许多基准存在“捷径可解性”,模型的高分可能并非源于其声称的复杂能力。同时,TRACE

推荐周报 2026-W19

本周 22 篇论文里能看出两条主线:生成式推荐继续在 Semantic ID 这一层做深耕,检索 / agentic search 这条线则在重写检索接口本身。另有三篇围绕 RAG 工程化(合成表格扩散、自动化 RAG 管线、生产级数据层),列入论文速览的"其他"部分。 生成式推荐侧四篇论文把更多结构化信号——商业价值、地理坐标、协同信号、长尾边界——直接压进 Semantic ID 这一层。腾讯(微信视频号广告)的 UniVA 做到 SID/decoding/serving 三段同时注入 eCPM 信号,离线 Hit Rate@100 +37.04%、线上 A/B GMV +1.5%;UCSD × Snap 的 Latte 从理论上证明自回归 SID 解码树会把语义近的 item 强行拉到一起,再给出在 token 前缀挂 latent 的低成本修补,NDCG@10 +3.45%。 检索侧的故事更激进。一周之内出现三种"重写检索接口"的反命题:Meta Superintelligence Labs 的 SIRA 把多轮 agent 探索压成一次 LLM-corpus 双向扩展的 BM25;Texas A&M / Stanford / UWashington 等 19 作者的 DCI 直接删掉 retriever,让 Claude Sonnet 4.6 用 grep + bash 在原始语料上调查(BrowseComp-Plus accuracy 从 69.0% 升到 80.0%、API 成本降 29.4%);UC Berkeley 的 T3 把 RAG 的"corpus"从文档换成 LLM 思维轨迹,AIME 上给 Gemini-2.5-Flash 注水 +56.3%。MIT 同期放出 OBLIQ-Bench,把"为什么必须改接口"这件事量化——传统 BM25 / dense / late interaction 在隐含意图查询上几乎全部接近 0 NDCG@10。 工业精排和召回侧维持"先拆瓶颈、再谈结构"的节奏。Meta Ads 的 IEFF 把特征下线从 3-6 个月重训压到不需重训,效率类 rollout 提速 5×;阿里淘天的 RecGPT-Mobile 把 next-query LLM 搬到手机端;中科大 × 美团的 DynamicPO 揭示多负样本 DPO 的"偏好优化坍塌"现象并给出梯度抑制的理论解释。整体趋势是:算法侧追求"动态自适应目标",工程侧追求"可回滚的弹性接口"。

推荐算法日报 - 2026-05-09

生成式推荐进入工业深水区:今日多篇论文(腾讯UniVA、Snap Latte)聚焦生成式推荐在工业场景的落地挑战。核心矛盾从“如何生成”转向“如何对齐商业价值”和“如何突破表达能力瓶颈”。UniVA提出全链路价值对齐框架,Latte则从理论层面揭示自回归语义ID的结构性限制,标志着该领域从概念验证走向工程优化。; 智能体(Agent)重塑搜索与推荐范式:Meta的SIRA和Waterloo的DCI分别从“单次检索替代多轮探索”和“用grep替代向量检索”两个角度,重新定义了检索接口。ByteDa

推荐算法日报 - 2026-05-08

LLM推荐走向端侧与列表级优化:今日两篇论文分别从端侧部署(RecGPT-Mobile)和列表级对齐(BLADE)两个方向推进LLM在推荐系统中的应用。前者解决端侧推理成本与实时性,后者突破静态对齐的性能上限,共同指向LLM推荐从“能用”到“高效、精准”的落地路径。; 生成式推荐进入“软路由”时代:CapsID用胶囊路由替代传统硬量化,解决了语义ID生成中的边界坍塌和误差传播问题,在35M级工业数据集上召回提升9.6%。这标志着生成式推荐的核心瓶颈从模型架构转向了tokenizer设计,软路由+

推荐算法日报 - 2026-05-07

生成式检索与RAG的工业化落地:今日多篇论文聚焦于将生成式范式(如LLM)应用于检索系统,从GenPOI的生成式POI检索到AutoRAGTuner的RAG管线自动化,再到利用思考轨迹(Thinking Traces)作为RAG语料库,表明业界正积极探索用生成式模型替代或增强传统检索流程,以解决复杂查询和上下文建模问题。; 从“检索”到“系统”的全链路优化:工业界论文(如Walmart的Unified Data Layer、Ant Group的AutoRAGTuner)不再局限于单一算法模块,而

推荐算法日报 - 2026-05-06

频域分析与序列建模融合:今日多篇论文探索了在频域(FEDIN)或连续时间域(BST-CDSR)建模用户行为,以捕捉传统时序方法难以处理的周期性模式和兴趣衰减,为序列推荐提供了新的信号增强思路。; LLM 从“生成”走向“评估与攻击”:LLM 的应用场景从内容生成扩展到模型评估与安全测试。CRAFT 利用 LLM 生成对抗样本来攻击排序模型,而 BST-CDSR 则利用 LLM 提取时间语义,展示了 LLM 在推荐系统攻防与特征工程中的潜力。; ⚖️ 公平性与评估稳定性成为焦点:工业界和学术界均开

推荐算法日报 - 2026-05-05

工业级系统优化与效率提升:今日多篇工业界论文(Meta、IKEA)聚焦于在不牺牲模型效果的前提下,通过系统级创新(如IEFF的弹性特征衰减)或训练数据优化(如IKEA的结构化负采样)来提升大规模推荐系统的迭代效率和资源利用率。这反映了工业界从追求模型复杂度转向关注工程效率与落地可行性的趋势。; LLM与推荐系统的深度融合与挑战:多篇论文(DynamicPO、IKEA、RIR综述)探讨了LLM在推荐系统中的应用,但同时也揭示了新的挑战,如偏好优化崩溃、零点击行为对线上效果的制约,以及LLM作为信息

推荐周报 2026-W18

本周 32 篇论文里有几条主线在同时推进。一是生成式推荐范式继续在工业链路里深挖——快手一家就贡献三篇,从 list-wise 重排到召回-排序统一再到 codebook 自适应,配合美团/英伟达的 KV cache serving 和华为的 RL 信号修复,把"生成式推荐能用,但 serving、RL、inference 顶不住"这条线一次性补齐。二是 LLM 推荐器的训练目标被拆开重做——Google 在 H-consistency 框架下证明 DPO 标准代理损失不一致并提出 SA-DPO,Meta 证明 GRPO+二元奖励等价于 AUC 优化并提出 Windowed Partial AUC,配合美团的潜在推理多因子分解和稀疏场景下"对齐够不够"的争论,质疑了"一个对齐目标走到底"的主流做法。三是 LLM 智能体在推荐系统的角色边界正在收敛——LinkedIn 的 schema-aligned 长期语义记忆、AgenticRecTune 的多智能体配置调优、Snap 的端到端趋势检测,三个工业落地都把 LLM 放在配置/记忆/趋势这类延迟不敏感、语义价值高的位置上,绕开了精排召回的实时性瓶颈。 基础设施侧 Meta 同时放出两篇系统论文——一篇 versioned late materialization 砍训练数据冗余,一篇 FreeScale 砍 256 卡分布式的计算气泡,明确支撑 HSTU/ULTRA-HSTU 的序列长度激进 scaling。LLM-检索-重排链路上则形成明显的"压缩派"共识:ResRank 把 passage 压成单 token、UAE 把 utility 信号蒸馏进 embedding、RRK 用多 token 压缩,统一指向"把推理预算从过 LLM 生成压到过一次相似度"。

推荐算法日报 - 2026-05-02

LLM 加速与效率优化成为核心议题:今日多篇论文聚焦 LLM 在推荐系统中的推理效率问题。从生成式推荐的推测解码加速(PAD-Rec),到多向量检索的聚类与索引优化(TACHIOM),再到属性图构建中的 token 节省(Amazon),工业界和学术界都在积极探索如何在不牺牲效果的前提下,让 LLM 推荐系统跑得更快、更省。; 多智能体与自动化系统配置优化兴起:以 ByteDance 的 AgenticRecTune 为代表,利用 LLM 驱动的多智能体框架自动探索和优化推荐系统的全链路配置(预

推荐算法日报 - 2026-05-01

LLM Agent 与推荐系统的深度融合:今日多篇论文(LinkedIn HLTM、ReaLM-Retrieve、FLR、ProMax)聚焦于如何利用LLM增强推荐系统。趋势从简单的“LLM生成文本”转向构建复杂的“推理-记忆-检索”框架,例如层次化语义记忆、自适应检索时机、多因子潜在推理等,旨在提升个性化、可解释性和推理能力。; 动态建模与多模态的精细化:推荐系统正从静态图或粗粒度时序建模,转向更精细的动态建模。TimeMM 通过时间谱滤波捕捉用户兴趣的非平稳演化,并区分视觉与文本模态的时序敏

推荐算法日报 - 2026-04-30

生成式推荐全面渗透重排与召回:今日多篇论文(GloRank、RecoChain)将推荐问题从传统的“索引选择”或“向量检索”范式,转向基于语义ID的“Token生成”范式。这标志着生成式推荐正从单一的召回/排序模块,向统一全链路的架构演进,有望从根本上改变推荐系统的设计哲学。; 工业界聚焦训练基础设施效率革命:Meta的论文揭示了超长用户序列训练中“数据冗余”这一被忽视的瓶颈,并提出“延迟物化”范式。这表明当模型架构(如HSTU)接近天花板时,数据基础设施的优化成为提升模型效果的关键杠杆,是工业

推荐算法日报 - 2026-04-29

生成式推荐进入精细化阶段:今日多篇论文(Pro-GEO, AdaSID, BITRec)聚焦于生成式推荐的核心表示——语义ID(SID)的优化。从单纯追求紧凑性,转向解决地理约束、多模态碰撞、行为强度差异等实际问题,标志着生成式推荐正从概念验证走向工业级精细化落地。; 系统与安全成为推荐算法新战场:随着模型复杂度提升,工业界开始关注推理效率(MTServe的层次化缓存)和分布式训练(FreeScale的计算气泡消除)。同时,LLM推荐系统的安全漏洞(PUDA攻击框架)也首次被系统性研究,提示算法