news 2026/5/9 17:29:31

CANN/cann-bench 分组矩阵乘量化融合算子评测

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
CANN/cann-bench 分组矩阵乘量化融合算子评测

GroupedMatmulSwigluQuant 算子 API 描述

【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领域评测平台,推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench

1. 算子简介

分组矩阵乘法(GroupedMatmul / GMM)、反量化、SwiGLU 激活与再量化的融合算子,将四个步骤合并为一次 Kernel 调用以减少中间数据搬运。语义对齐torch_npu.npu_grouped_matmul_swiglu_quant_v2的默认配置。

主要应用场景

  • 大语言模型中 MoE(Mixture of Experts)结构的 FFN 层前半段(Gate+Up 投影 + SwiGLU + 量化)
  • 量化推理流水线中 GMM → 激活 → 再量化的整体融合
  • 对 token 分组路由后,每组 token 使用独立专家权重的高性能推理

算子特征

  • 难度等级:L4(FusedComposite)
  • 多输入、双输出;涉及 GMM、per-token / per-channel 反量化、SwiGLU、再量化
  • 激活与权重均为 int8(x 已完成 per-token 量化),输出为 int8 + float32 scale

2. 算子定义

数学公式

$$ \begin{aligned} &\text{对每个专家 } g \in [0, E),\ \text{根据 } group_list\ (\text{cumsum}) \text{ 取属于该组的 token 行 } rows_g: \ &mm_g = x[rows_g] \cdot weight[g] \ &deq_g = mm_g \odot x_scale[rows_g] \odot weight_scale[g] \ &\text{合并所有组得到 } deq \in \mathbb{R}^{M \times N} \ &left, right = \text{split}(deq,\ \text{last_dim}/2) \ &act = \text{SiLU}(left) \odot right \ &y,\ y_scale = \text{PerTokenQuant}(act) \end{aligned} $$

步骤拆解

  1. 分组矩阵乘法(GMM)group_list采用 cumsum 语义,将xM行划分到E个专家;第g组的 token 与weight[g]做矩阵乘。
  2. 反量化(Dequant):左 per-token + 右 per-channel,deq[i, j] = mm[i, j] * x_scale[i] * weight_scale[g(i), j]
  3. SwiGLU:沿最后一维对半拆分为left, right,计算SiLU(left) * right,输出宽度减半为N/2
  4. 再量化(Quant):per-token,y_scale[i] = max_j|act[i, j]| / 127y[i, j] = clamp(round(act[i, j] / y_scale[i]), -128, 127)

3. 接口规范

算子原型

cann_bench.grouped_matmul_swiglu_quant( Tensor x, Tensor weight, Tensor weight_scale, Tensor x_scale, Tensor group_list, ) -> (Tensor y, Tensor y_scale)

输入参数

参数类型Shape描述
xTensor (int8)[M, K]激活矩阵(GMM 左矩阵,已完成 per-token 量化),允许非连续
weightTensor (int8)[E, K, N]专家权重(GMM 右矩阵)
weight_scaleTensor (float32)[E, N]权重 per-channel 反量化因子
x_scaleTensor (float32)[M]激活 per-token 反量化因子
group_listTensor (int32)[E]每个专家的 token 累计和(cumsum)

输出

参数Shapedtype描述
y[M, N/2]int8SwiGLU 后的 per-token int8 量化结果
y_scale[M]float32输出 per-token 反量化因子

数据类型

输入 dtype输出 dtype
x: int8;weight: int8;*_scale: float32;group_list: int32y: int8;y_scale: float32

规则与约束

  • xK维必须与weightK维一致。
  • weight的最后一维N必须为偶数,以便 SwiGLU 对半拆分。
  • group_list为 cumsum 序列,长度为E,最终累计值不得超过M
  • 输出y会被截断到[-128, 127]

4. 精度要求

采用生态算子精度标准进行验证。

误差指标

  1. 平均相对误差(MERE):采样点中相对误差平均值

    $$ \text{MERE} = \text{avg}(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)+\text{1e-7}}) $$

  2. 最大相对误差(MARE):采样点中相对误差最大值

    $$ \text{MARE} = \max(\frac{\text{abs}(actual - golden)}{\text{abs}(golden)+\text{1e-7}}) $$

通过标准

数据类型FLOAT16BFLOAT16FLOAT32HiFLOAT32FLOAT8 E4M3FLOAT8 E5M2
通过阈值(Threshold)2^-102^-72^-132^-112^-32^-2

当平均相对误差 MERE < Threshold,最大相对误差 MARE < 10 * Threshold 时判定为通过。

5. 标准 Golden 代码

import torch from typing import Tuple def grouped_matmul_swiglu_quant( x: torch.Tensor, weight: torch.Tensor, weight_scale: torch.Tensor, x_scale: torch.Tensor, group_list: torch.Tensor, ) -> Tuple[torch.Tensor, torch.Tensor]: M, K = x.shape E, _, N = weight.shape N_out = N // 2 ends = group_list.to(torch.int64).tolist() starts = [0] + ends[:-1] dequant = torch.empty((M, N), dtype=torch.float32, device=x.device) x_scale_f = x_scale.float() for g in range(E): s, e = starts[g], ends[g] if s == e: continue mm = torch.matmul(x[s:e].float(), weight[g].float()) xs = x_scale_f[s:e].unsqueeze(1) ws = weight_scale[g].float().unsqueeze(0) dequant[s:e] = mm * xs * ws left, right = dequant[..., :N_out], dequant[..., N_out:] act = torch.nn.functional.silu(left) * right eps = torch.finfo(torch.float32).tiny y_scale = act.abs().amax(dim=-1).clamp_min(eps) / 127.0 y = torch.clamp(torch.round(act / y_scale.unsqueeze(1)), -128, 127).to(torch.int8) return y, y_scale.to(torch.float32)

6. 额外信息

算子调用示例

import torch import cann_bench M, K, N, E = 64, 256, 512, 4 x = torch.randint(-128, 127, (M, K), dtype=torch.int8, device="npu") weight = torch.randint(-128, 127, (E, K, N), dtype=torch.int8, device="npu") weight_scale = torch.rand(E, N, dtype=torch.float32, device="npu") * 0.01 x_scale = torch.rand(M, dtype=torch.float32, device="npu") * 0.01 # cumsum 语义:四组累计 16/32/48/64 group_list = torch.tensor([16, 32, 48, 64], dtype=torch.int32, device="npu") y, y_scale = cann_bench.grouped_matmul_swiglu_quant( x, weight, weight_scale, x_scale, group_list, )

参考文档

  • torch_npu.npu_grouped_matmul_swiglu_quant_v2:https://www.hiascend.com/document/detail/zh/Pytorch/730/apiref/torchnpuCustomsapi/docs/context/torch_npu-npu_grouped_matmul_swiglu_quant_v2.md

【免费下载链接】cann-bench评测AI在处理CANN领域代码任务的能力,涵盖算子生成、算子优化等领域,支撑模型选型、训练效果评估,统一量化评估标准,识别Agent能力短板,构建CANN领域评测平台,推动AI能力在CANN领域的持续演进。项目地址: https://gitcode.com/cann/cann-bench

创作声明:本文部分内容由AI辅助生成(AIGC),仅供参考

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/5/9 17:26:32

> DeepClaude、Claude Code 免费方案、白嫖 Claude Code —— 2026年5月,这三个关键词正在程序员圈子里刷屏。原因很简单:Claude Code 太贵了,而 De

DeepClaude、Claude Code 免费方案、白嫖 Claude Code —— 2026年5月&#xff0c;这三个关键词正在程序员圈子里刷屏。原因很简单&#xff1a;Claude Code 太贵了&#xff0c;而 DeepClaude 号称能帮你省17倍。但它真的好用吗&#xff1f;我花了3天实测了5个项目&#xff0c;把…

作者头像 李华
网站建设 2026/5/9 17:26:32

5分钟快速上手TranslucentTB:Windows任务栏透明化的终极指南

5分钟快速上手TranslucentTB&#xff1a;Windows任务栏透明化的终极指南 【免费下载链接】TranslucentTB A lightweight utility that makes the Windows taskbar translucent/transparent. 项目地址: https://gitcode.com/gh_mirrors/tr/TranslucentTB TranslucentTB是…

作者头像 李华
网站建设 2026/5/9 17:22:31

AEC行业AI与机器人应用中的四大核心伦理挑战与应对策略

1. 项目概述&#xff1a;当AI与机器人走进建筑工地如果你在建筑、工程或施工&#xff08;AEC&#xff09;行业待过几年&#xff0c;就会对现场那种“按下葫芦浮起瓢”的混乱感深有体会。图纸改了又改&#xff0c;材料堆得到处都是&#xff0c;工人师傅们顶着安全帽在钢筋水泥的…

作者头像 李华
网站建设 2026/5/9 17:17:29

CANN图像算子双线性上采样反向V2

aclnnUpsampleBilinear2dBackwardV2 【免费下载链接】ops-cv 本项目是CANN提供的图像处理、目标检测相关的算子库&#xff0c;实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-cv &#x1f4c4; 查看源码 产品支持情况 产品是否支持Ascend 950PR/A…

作者头像 李华
网站建设 2026/5/9 17:17:29

CANN/ops-nn FatreluMul算子

aclnnFatreluMul 【免费下载链接】ops-nn 本项目是CANN提供的神经网络类计算算子库&#xff0c;实现网络在NPU上加速计算。 项目地址: https://gitcode.com/cann/ops-nn &#x1f4c4; 查看源码 产品支持情况 产品是否支持Ascend 950PR/Ascend 950DTAtlas A3 训练系列…

作者头像 李华