news 2026/4/15 8:10:54

并行编程实战——CUDA编程的内核循环展开

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
并行编程实战——CUDA编程的内核循环展开

一、循环展开

开发经验相对丰富一些的程序员应该对循环展开并不陌生,特别是有过循环优化方面的经历的可能了解的会更深刻一些。循环是对CPU占用比较多的一种情况,如果在每次循环中再有大量的计算情况下,可能效果会更差。此时可以通过一定的方法手段缩减循环次数,而在每次循环中把多次的计算代码重复执行缩减的次数即可。其实这也有点时间和空间转换的味道。
循环展开可以手动展开也可以通过编译优化自动展开,这就看开发者想如何操作了。其下为示意代码:

//1:手动循环展开// 原始循环for(inti=0;i<16;i++){arr[i]=i*2;}// 展开5次for(inti=0;i<4;i+=4){arr[i]=i*2;arr[i+1]=(i+1)*2;arr[i+2]=(i+2)*2;arr[i+3]=(i+3)*2;arr[i+4]=(i+4)*2;}//2:自动循环展开// 原始循环for(inti=0;i<16;i++){arr[i]=i*2;}//编译器展开// GCC#pragmaGCC unroll4for(inti=0;i<n;i++){arr[i]=i*2;}

循环展开说着可能有点不好理解,但是看到代码估计一眼就看明白了。另外在学习C++的元编程时,还接触过类似于循环展开的例子,此处不展开了,有兴趣自己的去查看一下。

二、CUDA的循环展开

其实好的优化技术或方法基本都是通用的,只是对实际场景的匹配度大小罢了。CUDA线程中也是可以通过减少或消除循环控制来提高任务的运行效率。单纯的循环计算还是相对容易展开的,比较麻烦的可能是会有一些分支惩罚的情况。
如果开发者能够显式的控制循环迭代(比如使用#pargma unroll)或者CUDA本身可以识别循环的迭代次数,那么就可以进行分支循环的展开(即自动展开小循环)。当然,如果能够直接在代码中拆分循环会更方便,只不过这种情景可能很少遇到。看一下代码示意:

template<typenamegroup_t>__inline__ __device__floatwarp_test(group_tg,floatnum){//未指定参数,完全展开#pragmaunrollfor(intcount=g.size()/2;ofcountfset>0;count>>=1)num+=g.shfl_down(num,count);returnnum;}

不过还是那句话,循环展开如果应用场景不好,除了上面的分支惩罚,还有可能展开的代码占用了过多的寄存器导致效率的降低,也就是指令缓存未命中的惩罚。总之,开发者对于各种优化技术要灵活应用,千万不要教条。

三、例程

下面看一个循环展开优化的例程:

#include"cuda_runtime.h"#include"device_launch_parameters.h"#include<stdio.h>#include<iostream>#include<vector>#include<algorithm>// 手动展开__global__voidvecAddUnroll4(constfloat*A,constfloat*B,float*C,intn){inti=(blockIdx.x*blockDim.x+threadIdx.x)*4;if(i+3<n){// 处理4个元素C[i]=A[i]+B[i];C[i+1]=A[i+1]+B[i+1];C[i+2]=A[i+2]+B[i+2];C[i+3]=A[i+3]+B[i+3];}else{// 处理边界for(intj=0;j<4&&(i+j)<n;j++){C[i+j]=A[i+j]+B[i+j];}}}template<intUNROLL>__global__voidvecAddUnrollSet(constfloat*A,constfloat*B,float*C,intn){inttid=blockIdx.x*blockDim.x+threadIdx.x;inti=tid*UNROLL;#pragmaunrollfor(intj=0;j<UNROLL;j++){intid=i+j;if(id<n){C[id]=A[id]+B[id];}}}__global__voidvecAddUnroll(constfloat*A,constfloat*B,float*C,intn){inti=blockIdx.x*blockDim.x+threadIdx.x;if(i<n){floatsum=0.0f;// 编译器展开这个循环#pragmaunrollfor(intj=0;j<4;j++){intid=i+j*(blockDim.x*gridDim.x);if(id<n){sum+=A[id]+B[id];}}C[i]=sum;}}// pragma__global__voidvecAddUnrollSetPragma(constfloat*A,constfloat*B,float*C,intn){inti=blockIdx.x*blockDim.x+threadIdx.x;#pragmaunroll4for(intj=0;j<4;j++){intid=i*4+j;if(id<n){C[id]=A[id]+B[id];}}}intmain(){constintN=1<<20;//1Mconstsize_tsize=N*sizeof(float);std::vector<float>hA(N),hB(N),hC(N);std::generate(hA.begin(),hA.end(),[](){returnrand()/(float)RAND_MAX;});std::generate(hB.begin(),hB.end(),[](){returnrand()/(float)RAND_MAX;});float*dA,*dB,*dC;cudaMalloc(&dA,size);cudaMalloc(&dB,size);cudaMalloc(&dC,size);// 拷贝数据到设备cudaMemcpy(dA,hA.data(),size,cudaMemcpyHostToDevice);cudaMemcpy(dB,hB.data(),size,cudaMemcpyHostToDevice);// 设置执行配置intbSize=256;intgSize=(N+bSize-1)/bSize;vecAddUnroll4<<<gSize/4,bSize>>>(dA,dB,dC,N);cudaDeviceSynchronize();vecAddUnrollSet<4><<<gSize/4,bSize>>>(dA,dB,dC,N);cudaDeviceSynchronize();// pragma unrollvecAddUnroll<<<gSize,bSize>>>(dA,dB,dC,N);cudaDeviceSynchronize();vecAddUnrollSetPragma<<<gSize,bSize>>>(dA,dB,dC,N);cudaDeviceSynchronize();// 清理cudaFree(dA);cudaFree(dB);cudaFree(dC);return0;}

代码并不复杂,大家看一看就明白了,不再展开说明。

四、总结

很多技术它的思想都是一致的,只是在不同的范围内应用。特别是在语言应用上,虽然各种语言面对的场景多少都有不同,但其本质的目的是相通的。都是为了让解决问题的手段变得更容易。所以语言内对技术的引入同样是相通的,只不过运用和实现的方式根据自身的特点会有各自的不同罢了。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/15 6:20:53

Open-AutoGLM远程控制配置实战指南(99%工程师忽略的关键细节)

第一章&#xff1a;Open-AutoGLM远程控制配置概述Open-AutoGLM 是一个基于 AutoGLM 架构的开源远程自动化控制框架&#xff0c;支持跨平台设备管理与指令调度。其核心设计目标是实现低延迟、高安全性的远程任务执行&#xff0c;适用于物联网网关、边缘计算节点及分布式服务集群…

作者头像 李华
网站建设 2026/4/15 7:34:53

CAP CDS 和 ABAP Cloud 的 CDS 有什么区别?

下面用一个同名不同物的视角来拆解:在 SAP 生态里,CAP 里的 CDS 与 ABAP Cloud 里的 CDS 都叫 Core Data Services,但它们服务的运行时、生命周期、产物形态、以及面向的开发范式并不相同。把它们当成两种不同平台上的语义建模语言与元数据体系会更贴切:CAP CDS 更像全栈应…

作者头像 李华
网站建设 2026/4/14 12:18:30

构建软件的“免疫系统”:从缺陷修复到主动防御的测试哲学

超越“救护车”式的测试困境 传统软件测试常常被比作“医疗救护”——在系统出现症状后紧急救治。然而&#xff0c;在数字化生存已成为常态的今天&#xff0c;这种被动响应模式愈发显得力不从心。频发的线上故障、隐蔽的安全漏洞、脆弱的用户体验&#xff0c;无不呼唤着一种全…

作者头像 李华
网站建设 2026/4/9 3:52:17

Open-AutoGLM模板深度拆解,揭秘头部AI团队不愿透露的流程细节

第一章&#xff1a;Open-AutoGLM模板的核心理念与架构设计Open-AutoGLM 是一个面向生成式语言模型自动化任务的开源模板框架&#xff0c;旨在通过模块化设计和标准化接口降低复杂AI应用的开发门槛。其核心理念是“可组合、可扩展、可复现”&#xff0c;将自然语言处理任务拆解为…

作者头像 李华
网站建设 2026/4/13 16:42:38

Excalidraw AI加快产品需求评审周期

Excalidraw AI&#xff1a;让产品需求评审从“听你说”变成“一起画” 在一次典型的产品评审会上&#xff0c;你是否经历过这样的场景&#xff1f;产品经理口若悬河地描述着一个复杂的用户流程&#xff1a;“当用户提交表单后&#xff0c;系统先做风控校验&#xff0c;如果通过…

作者头像 李华