news 2026/5/9 20:01:24

CANN/cannbot-skills UB缓冲区管理指南

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CANN/cannbot-skills UB缓冲区管理指南

UB 缓冲区管理指南

【免费下载链接】cannbot-skillsCANNBot 是面向 CANN 开发的用于提升开发效率的系列智能体,本仓库为其提供可复用的 Skills 模块。项目地址: https://gitcode.com/cann/cannbot-skills

TBuf/TQue 选择、Double Buffer 流水线并行、批量搬运模式。


目录

  1. TBuf vs TQue 选择
  2. TQue 详解
  3. TBuf 详解
  4. Double Buffer 流水线并行
  5. 批量搬运 + 逐行计算模式

TBuf vs TQue 选择

场景推荐类型说明
MTE2/MTE3 搬运缓冲区TQue<VECIN/VECOUT>需要与 Vector 并行,需要 EnQue/DeQue
纯 Vector 计算缓冲区TBuf<VECCALC>不涉及 MTE 搬运,用Get<T>()获取
Double BufferTQue+InitBuffer(que, 2, size)在 InitBuffer 中设置 num=2 开启

TQue 详解

模板参数

template <TPosition pos, int32_t depth, auto mask = 0> class TQue;
参数说明
pos队列逻辑位置:VECIN,VECOUT,A1,A2,B1,B2,CO1,CO2
depth队列深度,表示可连续 EnQue/DeQue 的次数
mask数据格式转换(ND↔NZ)或编译期优化参数

depth 参数关键说明

depth 值适用场景说明
depth=1默认推荐,非 Tensor 原地操作编译器有特殊优化,性能更好
depth=0Tensor 原地操作需要设置
depth=2连续 2 次 EnQue 场景与 InitBuffer 的 num 参数独立

注意depth与 Double Buffer 无关。Double Buffer 由InitBuffernum参数控制。

// ✅ 非连续入队(普通场景):depth=1 即可 AscendC::TQue<AscendC::TPosition::VECIN, 1> que; pipe->InitBuffer(que, 1, size); auto tensor = que.AllocTensor<T>(); que.EnQue(tensor); tensor = que.DeQue<T>(); que.FreeTensor(tensor);

Double Buffer 配置

Double Buffer 是在InitBuffernum参数中设置,与模板参数depth无关。

InitBuffer 参数作用说明
InitBuffer(que, num, size)num控制 Double Buffernum=1=单 Buffer,num=2=开启 Double Buffer
模板参数depth队列深度表示可连续 EnQue 的次数
// ✅ 开启 Double Buffer:在 InitBuffer 中设置 num=2 AscendC::TQue<AscendC::TPosition::VECIN, 1> que; // 模板 depth=1 即可 pipe->InitBuffer(que, 2, size); // num=2 开启 Double Buffer // ✅ 关闭 Double Buffer AscendC::TQue<AscendC::TPosition::VECIN, 1> que; pipe->InitBuffer(que, 1, size); // num=1 单 Buffer

TQue Buffer 数量限制

产品系列eventID 数量最大 TQue 数量
Atlas 训练系列44
Atlas 推理系列 AI Core88
Atlas 推理系列 Vector Core88
Atlas A2/A3 系列88

注意

  • 不开启 Double Buffer(num=1):最多可申请 8 个 TQue
  • 开启 Double Buffer(num=2):每个 TQue 占用 2 个 buffer,最多只能申请 4 个 TQue
// 开启 Double Buffer 时,最多只能申请 4 个 TQue pipe->InitBuffer(que0, 2, size); // ✅ pipe->InitBuffer(que1, 2, size); // ✅ pipe->InitBuffer(que2, 2, size); // ✅ pipe->InitBuffer(que3, 2, size); // ✅ pipe->InitBuffer(que4, 2, size); // ❌ 超过限制

TQue 正确用法

// TQue:需要队列管理(MTE 搬运相关) // 模板 depth=1 即可,Double Buffer 在 InitBuffer 的 num 参数中设置 AscendC::TQue<AscendC::TPosition::VECIN, 1> inQueueX; pipe->InitBuffer(inQueueX, 2, bufferSize); // num=2 开启 Double Buffer AscendC::LocalTensor<half> x = inQueueX.AllocTensor<half>(); AscendC::DataCopyPad(x, xGm, {1, size * sizeof(half), 0, 0}, {false, 0, 0, 0}); inQueueX.EnQue(x); // ... AscendC::LocalTensor<half> xLocal = inQueueX.DeQue<half>(); inQueueX.FreeTensor(xLocal);

TBuf 详解

特性

特性说明
内存用途只能参与计算,无法执行 EnQue/DeQue
内存分配每次 InitBuffer 只分配一块内存
Tensor 释放无需手动释放
// TBuf:纯计算缓冲区 AscendC::TBuf<AscendC::TPosition::VECCALC> workBuf; pipe->InitBuffer(workBuf, bufferSize); // ✅ 使用 Get<T>() 获取 Tensor,无需释放 AscendC::LocalTensor<float> work = workBuf.Get<float>(); // ... 计算逻辑 ... // 无需 FreeTensor

Double Buffer 流水线并行

核心认知

Double Buffer 不是"用2块内存计算",而是"用2块内存做搬入/搬出,使 MTE2/MTE3 与 Vector 计算并行"。

本质:内存搬运与计算并行,掩盖搬运延迟

硬件原理

  • MTE2:搬运工,GM → UB
  • Vector:加工员,计算
  • MTE3:搬运工,UB → GM

时间线对比

无 Double Buffer(串行)

Row 0: [MTE2][Vector][MTE3] Row 1: [MTE2][Vector][MTE3]

有 Double Buffer(并行)

Row 0: [MTE2-B0][Vector-B0][MTE3-B0] Row 1: [MTE2-B1][Vector-B1][MTE3-B1] ↑ MTE2与Vector并行!

实现原则

Buffer 类型InitBuffer num说明
TQue<VECIN>(MTE2 搬运)2num=2 开启 Double Buffer,与 Vector 并行
TQue<VECOUT>(MTE3 搬运)2num=2 开启 Double Buffer,与 Vector 并行
TBuf<VECCALC>(纯计算)-TBuf 不涉及 MTE 搬运

正确用法

// 1. Init: num=2 开启 Double Buffer pipe->InitBuffer(inQueueX, 2, tileSize * sizeof(T)); pipe->InitBuffer(outQueueY, 2, tileSize * sizeof(T)); pipe->InitBuffer(workBuf, workSize * sizeof(T)); // 2. Process: 单循环结构,TQue 自动轮转 for (int i = 0; i < totalTiles; i++) { CopyIn(i); // MTE2 异步搬运 Compute(i); // Vector 计算 CopyOut(i); // MTE3 异步搬出 } // 3. CopyIn void CopyIn(int i) { LocalTensor<T> x = inQueueX.AllocTensor<T>(); DataCopyPad(x, xGm[i * tileSize], {1, (uint32_t)(tileSize * sizeof(T)), 0, 0}, {false, 0, 0, 0}); inQueueX.EnQue(x); } // 4. Compute void Compute(int i) { LocalTensor<T> x = inQueueX.DeQue<T>(); LocalTensor<T> y = outQueueY.AllocTensor<T>(); Add(y, x, constTensor, tileSize); outQueueY.EnQue(y); inQueueX.FreeTensor(x); } // 5. CopyOut void CopyOut(int i) { LocalTensor<T> y = outQueueY.DeQue<T>(); DataCopyPad(yGm[i * tileSize], y, {1, (uint32_t)(tileSize * sizeof(T)), 0, 0}); outQueueY.FreeTensor(y); }

为什么能并行?

操作特性
DataCopy异步 DMA,立即返回
EnQue非阻塞,标记就绪
DeQue阻塞,等待就绪

常见误区

误区正确理解
需要手动拆成 Ping/Pong 两套代码单循环 +InitBuffer(que, 2, size)自动管理
depth 模板参数控制 Double BufferDouble Buffer 由InitBuffernum参数控制
depth 越大越好模板 depth 通常设为 1,性价比最高
所有 buffer 都要 num=2只有涉及 MTE 搬运的才需要 Double Buffer

批量搬运 + 逐行计算模式

适用场景

处理多行数据时,批量搬运减少 MTE2/MTE3 调用次数,充分利用带宽。

模式结构

CopyInBatch(N行) → 逐行计算(N次) → CopyOutBatch(N行)

代码模板

__aicore__ inline void ProcessBatch() { uint32_t totalRowsToProcess = endRow - startRow; if (totalRowsToProcess == 0) return; for (uint32_t tile = 0; tile < tilesPerCore; tile++) { uint32_t startLocalRow = tile * tileRows; // 边界检查:防止 uint32_t 下溢 if (startLocalRow >= totalRowsToProcess) break; uint32_t remaining = totalRowsToProcess - startLocalRow; uint32_t rowsThisTile = (remaining < tileRows) ? remaining : tileRows; CopyInBatch(startLocalRow, rowsThisTile); ComputeBatch(rowsThisTile); CopyOutBatch(startLocalRow, rowsThisTile); } }

Host 侧 Tiling 计算

// A2/A3 UB = 192KB constexpr uint64_t UB_SIZE = 192 * 1024; constexpr uint32_t MAX_BLOCK_COUNT = 4095; // DataCopyPad blockCount 限制 // bytesPerTileRow: double buffer (in*2 + out*2) uint32_t bytesPerTileRow = paddedColsT * typeSizeBytes * 4; // tileRows uint32_t tileRows = (UB_SIZE - overheadBytes) / bytesPerTileRow; tileRows = std::max(1u, std::min(tileRows, MAX_BLOCK_COUNT));

注意事项

  1. tileRows 限制:DataCopyPad 的blockCount最大 4095
  2. 尾核处理startLocalRow >= totalRowsToProcess时提前退出
  3. stride 计算:UB 侧 stride 单位是 32 字节块,GM 侧是字节

【免费下载链接】cannbot-skillsCANNBot 是面向 CANN 开发的用于提升开发效率的系列智能体,本仓库为其提供可复用的 Skills 模块。项目地址: https://gitcode.com/cann/cannbot-skills

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 19:58:32

CANN/ops-cv空间变换器算子

SpatialTransformer 【免费下载链接】ops-cv 本项目是CANN提供的图像处理、目标检测相关的算子库&#xff0c;实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-cv 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DT√Atlas A3 训练系列产品/Atla…

作者头像 李华
网站建设 2026/5/9 19:58:14

观察Taotoken在跨地域访问下的API响应延迟与自动路由效果

&#x1f680; 告别海外账号与网络限制&#xff01;稳定直连全球优质大模型&#xff0c;限时半价接入中。 &#x1f449; 点击领取海量免费额度 观察Taotoken在跨地域访问下的API响应延迟与自动路由效果 1. 测试背景与目的 在日常开发与使用大模型API的过程中&#xff0c;网络…

作者头像 李华
网站建设 2026/5/9 19:58:12

华为通信库子通信域配置创建

HcclCreateSubCommConfig 【免费下载链接】hcomm HCOMM&#xff08;Huawei Communication&#xff09;是HCCL的通信基础库&#xff0c;提供通信域以及通信资源的管理能力。 项目地址: https://gitcode.com/cann/hcomm 产品支持情况 Ascend 950PR/Ascend 950DT&#xff…

作者头像 李华
网站建设 2026/5/9 19:57:11

AI行业经历三次关键拐点

AI行业三次关键拐点对比分析2015年OpenAI成立 初创阶段以非营利组织形态出现&#xff0c;马斯克与奥特曼共同推动通用人工智能&#xff08;AGI&#xff09;的伦理发展。技术路线聚焦开源与透明&#xff0c;标志性成果包括GPT-1和强化学习框架OpenAI Gym。此时行业竞争集中于算法…

作者头像 李华
网站建设 2026/5/9 19:53:43

nli-MiniLM2-L6-H768部署教程:低配GPU也能跑的极速文本分类方案

nli-MiniLM2-L6-H768部署教程&#xff1a;低配GPU也能跑的极速文本分类方案 1. 项目概述 nli-MiniLM2-L6-H768是一款基于cross-encoder/nli-MiniLM2-L6-H768轻量级NLI模型开发的本地零样本文本分类工具。它最大的特点是无需任何微调训练&#xff0c;只需输入文本和自定义标签…

作者头像 李华
网站建设 2026/5/9 19:47:30

L2-004 这是二叉搜索树吗?

L2-004 这是二叉搜索树吗&#xff1f;一棵二叉搜索树可被递归地定义为具有下列性质的二叉树&#xff1a;对于任一结点&#xff0c;其左子树中所有结点的键值小于该结点的键值&#xff1b;其右子树中所有结点的键值大于等于该结点的键值&#xff1b;其左右子树都是二叉搜索树。所…

作者头像 李华