- 标签:
- AI (72)
- Daily (54)
- Tech Trends (54)
- 技术趋势 (18)
- 推荐系统 (16)
- 日报 (15)
- 周报 (11)
- Agentic Engineering (7)
- 思考 (6)
- 论文 (6)
- Recommendation Systems (6)
- Weekly (6)
- Papers (6)
- 深度学习 (4)
- 工具 (3)
- Harness Engineering (3)
- 推荐 (2)
- 强化学习 (1)
- 思维模型 (1)
- Transformer (1)
- LLM (1)
- 管理 (1)
- 生成式 (1)
TCA 是 GPU 的核心算力部件 Tensor Core 的时间周期的激活比率,它和 MFU 理论上应当非常接近,日常中会出现 10%~20% 的 GAP,相对稳定,我们就以观察 TCA 为准了。 本文的契机是,当我尝试优化 MFU,拿TCA 作为一个辅助的观察指标,我发现他们之间的 GAP 在一些特殊情况下是不稳定的。由此开始拆解MFU 和 TCA 的 GAP,发现了GPU 的时钟频率在变,矩阵维度不是cuBLAS选择的 kernel shape 的整数倍导致的padding 计算浪费,以及最诡异Flash Attention 2 的 TCA 是 51%,MFU 不到 8%,时钟频率矫正后TCA稳定的是 MFU的 4 倍!