以下是一个基于CMake 3.18+的完整find_package(CUDAToolkit REQUIRED)使用范例,包含项目配置、混合语言编译、架构设置及库链接的全流程:
完整 CMakeLists.txt 范例
# 1. 基础配置 cmake_minimum_required(VERSION 3.18) # 推荐 ≥3.18 以支持 CMAKE_CUDA_ARCHITECTURES project(ModernCUDAExample LANGUAGES CXX CUDA # 启用 C++ 和 CUDA 双语言支持 ) # 2. 查找 CUDAToolkit 组件 find_package(CUDAToolkit REQUIRED COMPONENTS nvcc cublas curand) # 3. 创建可执行文件(混合 C++ 和 CUDA 源码) add_executable(cuda_demo src/main.cpp # C++ 入口文件 src/kernel.cu # CUDA 核心计算内核 src/helper.cpp # 辅助 C++ 代码 ) # 4. 设置目标属性 # 4.1 指定 CUDA 架构(自动适配主流 GPU) set_target_properties(cuda_demo PROPERTIES CUDA_ARCHITECTURES "70;80;86" # 对应 sm_70 (Turing), sm_80 (Ampere), sm_86 (A100) CUDA_STANDARD 14 # CUDA 代码使用 C++14 标准 CXX_STANDARD 17 # C++ 代码使用 C++17 标准 ) # 4.2 添加编译选项 target_compile_options(cuda_demo PRIVATE # CUDA 代码编译选项 $<$<COMPILE_LANGUAGE:CUDA>:-O3;-use_fast_math;-Xcompiler=-fPIC> # C++ 代码编译选项 $<$<COMPILE_LANGUAGE:CXX>:-Wall;-Wextra;-pedantic> ) # 5. 链接 CUDA 库 target_link_libraries(cuda_demo PRIVATE CUDAToolkit::cublas # 链接 cuBLAS 库 CUDAToolkit::curand # 链接 cuRAND 库 CUDAToolkit::cudart # 链接 CUDA Runtime 库 ) # 6. 包含 CUDA 头文件路径(自动处理,无需手动指定) target_include_directories(cuda_demo PRIVATE ${CUDAToolkit_INCLUDE_DIRS} # CUDAToolkit 自动提供的头文件路径 ) # 7. 添加自定义宏(可选:用于条件编译) target_compile_definitions(cuda_demo PRIVATE USE_CUDA=1 # 定义宏 USE_CUDA CUDA_VERSION=${CUDAToolkit_VERSION_MAJOR} # 注入 CUDA 版本信息 )配套项目结构
ModernCUDAExample/ ├── CMakeLists.txt ├── src/ │ ├── main.cpp # C++ 主程序 │ ├── kernel.cu # CUDA 内核代码 │ └── helper.cpp # 辅助 C++ 函数 └── include/ └── common.h # 公共头文件关键代码片段示例
src/main.cpp
#include<iostream>#include"common.h"externvoidcudaKernel();// 声明 CUDA 内核intmain(){std::cout<<"Using CUDA Version: "<<CUDA_VERSION<<std::endl;cudaKernel();// 调用 CUDA 内核return0;}src/kernel.cu
#include <cuda_runtime.h> #include <curand.h> #include <cublas_v2.h> __global__ void simpleKernel() { // 简单的 CUDA 内核 } void cudaKernel() { // 初始化 cuBLAS cublasHandle_t handle; cublasCreate(&handle); // 执行内核 simpleKernel<<<1, 1>>>(); cudaDeviceSynchronize(); // 清理资源 cublasDestroy(handle); }构建与运行
# 创建构建目录mkdirbuild&&cdbuild# 配置 CMake(指定生成器,如 Ninja 或 Makefile)cmake..-G Ninja -DCMAKE_CUDA_ARCHITECTURES=70;80;86# 编译项目ninja# 运行可执行文件./cuda_demo关键优势解析
自动架构检测
CUDA_ARCHITECTURES自动适配目标 GPU 架构,避免手动硬编码-gencode参数。组件化链接
通过CUDAToolkit::<component>精确链接所需库(如cublas、curand),替代传统${CUDA_LIBRARIES}的模糊链接。混合语言支持
LANGUAGES CXX CUDA声明使 CMake 自动处理 C++/CUDA 混合编译,无需手动分离源文件。跨平台一致性
CMake 自动处理 Windows/Linux/macOS 的路径差异和编译器标志(如-Xcompiler)。版本控制
CUDAToolkit_VERSION提供版本信息,便于条件编译和依赖管理。
常见问题处理
- 架构不匹配:若运行时 GPU 架构与编译时
CUDA_ARCHITECTURES不匹配,可通过CUDA_ARCHITECTURES=native启用本地 GPU 架构检测。 - 库路径问题:若 CMake 无法自动找到 CUDAToolkit,可手动指定路径:
set(CUDAToolkit_ROOT "/usr/local/cuda-11.7") # Linux 示例 find_package(CUDAToolkit REQUIRED) - 旧项目迁移:逐步替换传统
find_package(CUDA)逻辑,优先使用CUDAToolkit和project(LANGUAGES CUDA)。
此范例展示了如何在现代 CMake 中高效利用CUDAToolkit实现跨平台、高性能的 CUDA 开发,同时保持配置的简洁性和可维护性。