news 2026/4/22 1:27:29

具身智能:零基础入门睿尔曼机械臂(六)——手眼标定代码库详解,从原理到实践

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
具身智能:零基础入门睿尔曼机械臂(六)——手眼标定代码库详解,从原理到实践

前言

手眼标定是机器人视觉领域的关键技术,它解决了机械臂与相机之间的坐标转换问题,为精准抓取、视觉伺服等应用奠定基础。上一篇博客中我们讲解了手眼标定的概念以及原理,本文将详细解析睿尔曼官方提供的完整的手眼标定代码库,包括其结构设计、核心功能及使用方法,帮助读者快速掌握手眼标定的实现流程。

文章目录

  • 前言
  • 项目概述
  • 项目结构
  • 核心原理
    • 1. 眼在手上模式(Eye-in-Hand)
    • 2. 眼在手外模式(Eye-to-Hand)
  • 核心代码解析
    • 一、核心计算模块深度解析
      • 1. 眼在手上标定(compute_in_hand.py)
        • 1.1 初始化与配置加载
        • 1.2 标定板角点检测与相机外参计算
        • 1.3 相机标定与位姿转换
        • 1.4 手眼标定核心计算
      • 2. 眼在手外标定(compute_to_hand.py)
        • 2.1 核心差异点
        • 2.2 标定目标差异
    • 二、辅助模块解析
      • 1. 数据采集模块(collect_data.py)
      • 2. 配置文件(config.yaml)
      • 3. 日志模块(libs/log_setting.py)
      • 4. 位姿处理工具(save_poses.py / save_poses2.py)
    • 三、代码串联与整体流程
      • 1. 数据流向图
  • 总结

项目概述

该代码库专注于实现两种常见的手眼标定模式:

  • 眼在手上(Eye-in-Hand):相机固定在机械臂末端,随机械臂一起运动
  • 眼在手外(Eye-to-Hand):相机固定在机械臂外部,位置保持不变

通过采集机械臂位姿和标定板图像,计算出相机与机械臂之间的坐标变换矩阵,最终实现目标从相机坐标系到机械臂基坐标系的转换。

项目结构

hand_eye_calibration/ ├── README.md # 项目说明文档 ├── collect_data.py # 数据采集程序 ├── compute_in_hand.py # 眼在手上标定计算 ├── compute_to_hand.py # 眼在手外标定计算 ├── config.yaml # 配置文件 ├── requirements.txt # 依赖包列表 ├── save_poses.py # 位姿数据处理工具 ├── save_poses2.py # 位姿数据处理工具 ├── picture/ # 图片资源 └── libs/ # 辅助工具库 ├── auxiliary.py # 辅助函数 └── log_setting.py # 日志配置

核心原理

手眼标定的本质是求解坐标变换矩阵,两种模式分别对应不同的数学模型,上一章已经详细讲过其中的数学原理,这边我们简单复习一下:

1. 眼在手上模式(Eye-in-Hand)

需要求解相机相对于机械臂末端的变换矩阵H C A M E E H^{EE}_{CAM}HCAMEE,核心方程为:
A 2 − 1 ⋅ A 1 ⋅ X = X ⋅ B 2 ⋅ B 1 − 1 A_2^{-1} \cdot A_1 \cdot X = X \cdot B_2 \cdot B_1^{-1}A21A1X=XB2B11
其中:

  • A AA表示机械臂末端在基坐标系下的位姿变换
  • B BB表示标定板在相机坐标系下的位姿变换
  • X XX即为待求的相机与末端的变换矩阵

2. 眼在手外模式(Eye-to-Hand)

需要求解相机相对于机械臂基坐标系的变换矩阵H C A M R O B H^{ROB}_{CAM}HCAMROB,核心方程同样遵循A X = X B AX=XBAX=XB形式,只是矩阵定义不同。

核心代码解析

一、核心计算模块深度解析

1. 眼在手上标定(compute_in_hand.py)

该模块是眼在手上模式的核心计算单元,负责将采集到的图像和位姿数据转换为相机与机械臂末端的坐标变换关系。

1.1 初始化与配置加载
current_path=os.path.join(os.path.dirname(os.path.abspath(__file__)),"eye_hand_data")images_path=os.path.join("eye_hand_data",find_latest_data_folder(current_path))file_path=os.path.join(images_path,"poses.txt")withopen("config.yaml",'r',encoding='utf-8')asfile:data=yaml.safe_load(file)XX=data.get("checkerboard_args").get("XX")# 标定板长度方向角点数YY=data.get("checkerboard_args").get("YY")# 标定板宽度方向角点数L=data.get("checkerboard_args").get("L")# 角点间距(米)
  • 路径处理:通过find_latest_data_folder自动定位最新采集的数据文件夹,确保使用最新标定数据
  • 配置加载:从config.yaml读取标定板参数,支持不同规格标定板的灵活适配
1.2 标定板角点检测与相机外参计算
# 标定板3D坐标定义(世界坐标系)objp=np.zeros((XX*YY,3),np.float32)objp[:,:2]=np.mgrid[0:XX,0:YY].T.reshape(-1,2)objp=L*objp# 转换为实际物理尺寸# 角点检测foriinrange(1,len(images_num)+1):img=cv2.imread(image_file)gray=cv2.cvtColor(img,cv2.COLOR_BGR2GRAY)ret,corners=cv2.findChessboardCorners(gray,(XX,YY),None)ifret:obj_points.append(objp)# 亚像素优化:提高角点检测精度到亚像素级别corners2=cv2.cornerSubPix(gray,corners,(5,5),(-1,-1),criteria)img_points.append(corners2)
  • 世界坐标系定义:将标定板视为世界坐标系,Z轴为0,X/Y轴由角点网格定义
  • 亚像素优化:通过cv2.cornerSubPix将角点坐标从像素级优化到亚像素级(精度达0.1像素以下),为后续标定提供更高精度的输入
1.3 相机标定与位姿转换
# 相机标定:获取标定板在相机坐标系下的位姿ret,mtx,dist,rvecs,tvecs=cv2.calibrateCamera(obj_points,img_points,size,None,None)# 机械臂位姿处理:将poses.txt转换为齐次变换矩阵poses_main(file_path)tool_pose=np.loadtxt("RobotToolPose.csv",delimiter=',')# 提取旋转矩阵和平移向量R_tool=[]t_tool=[]foriinrange(int(N)):R_tool.append(tool_pose[0:3,4*i:4*i+3])# 旋转矩阵部分t_tool.append(tool_pose[0:3,4*i+3])# 平移向量部分
  • 相机外参计算cv2.calibrateCamera返回的rvecstvecs分别是标定板在相机坐标系下的旋转向量和平移向量
  • 机械臂位姿转换poses_main函数将机械臂末端的位姿(通常是X,Y,Z,_rx,ry,rz)转换为齐次变换矩阵,存储于RobotToolPose.csv
1.4 手眼标定核心计算
# 使用Tsai算法求解手眼变换R,t=cv2.calibrateHandEye(R_tool,t_tool,rvecs,tvecs,cv2.CALIB_HAND_EYE_TSAI)
  • 参数解析
    • R_tool/t_tool:机械臂末端在基坐标系下的旋转矩阵/平移向量序列
    • rvecs/tvecs:标定板在相机坐标系下的旋转向量/平移向量序列
    • cv2.CALIB_HAND_EYE_TSAI:采用Tsai-Lenz算法(计算速度快,精度高)
  • 输出R为相机相对于机械臂末端的旋转矩阵,t为对应的平移向量

2. 眼在手外标定(compute_to_hand.py)

该模块与compute_in_hand.py结构高度相似,但存在关键差异:

2.1 核心差异点
# 机械臂位姿处理函数不同fromsave_poses2importposes2_main...poses2_main(file_path)# 替代compute_in_hand.py中的poses_main
  • 位姿转换逻辑poses2_mainposes_main的区别在于机械臂位姿的变换方向不同:
    • 眼在手上:需要机械臂末端相对于基坐标系的变换(A AA矩阵)
    • 眼在手外:需要基坐标系相对于机械臂末端的变换(A − 1 A^{-1}A1矩阵)
2.2 标定目标差异
# 眼在手外模式下,calibrateHandEye输出的是相机相对于基坐标系的变换R,t=cv2.calibrateHandEye(R_tool,t_tool,rvecs,tvecs,cv2.CALIB_HAND_EYE_TSAI)
  • 眼在手上:X = H C A M E E X = H^{EE}_{CAM}X=HCAMEE(相机→末端)
  • 眼在手外:X = H C A M R O B X = H^{ROB}_{CAM}X=HCAMROB(相机→基坐标系)

二、辅助模块解析

1. 数据采集模块(collect_data.py)

该模块实现图像与位姿的同步采集,确保每一组数据的时间一致性:

# 机械臂位姿获取socket_command='{"command": "get_current_arm_state"}'state,pose=send_cmd(client,socket_command)# 数据保存withopen(filename,'a+')asf:pose_=[str(i)foriinpose]new_line=f'{",".join(pose_)}\n'f.write(new_line)cv2.imwrite(image_path,cv_img)
  • 同步机制:通过按键触发('s’键),确保同一时刻采集的图像和位姿被关联存储
  • 数据格式
    • 位姿:poses.txt中每行存储一组机械臂位姿(X,Y,Z,rx,ry,rz)
    • 图像:按序号命名(1.jpg, 2.jpg…),与位姿文件行号一一对应

2. 配置文件(config.yaml)

checkerboard_args:XX:9# 长度方向角点数YY:6# 宽度方向角点数L:0.02# 角点间距(米)
  • 标定板参数:需根据实际使用的标定板修改,直接影响世界坐标系到图像坐标系的转换精度
  • 扩展性:可通过添加其他参数(如相机内参路径、日志级别等)增强配置灵活性

3. 日志模块(libs/log_setting.py)

classCommonLog(object):def__console(self,level,message):# 文件日志(按天轮转)fh=TimedRotatingFileHandler(self.logname,when='MIDNIGHT',interval=1,encoding='utf-8')# 控制台日志ch=logging.StreamHandler()self.logger.addHandler(fh)self.logger.addHandler(ch)# 记录日志后移除处理器,避免重复输出self.logger.removeHandler(ch)self.logger.removeHandler(fh)
  • 双重输出:同时向控制台和文件输出日志,方便调试和记录
  • 日志轮转:按天分割日志文件,避免单文件过大,便于追溯历史标定过程

4. 位姿处理工具(save_poses.py / save_poses2.py)

虽然未提供完整代码,但根据上下文可推断其功能:

  • 功能:将机械臂位姿(欧拉角)转换为齐次变换矩阵
  • 核心公式
    # 欧拉角转旋转矩阵(以ZYX顺序为例)R=Rz(rz)*Ry(ry)*Rx(rx)# 构造齐次矩阵H=[[R[0][0],R[0][1],R[0][2],x],[R[1][0],R[1][1],R[1][2],y],[R[2][0],R[2][1],R[2][2],z],[0,0,0,1]]
  • 差异点save_poses2.py会计算变换矩阵的逆,以适应眼在手外的数学模型

三、代码串联与整体流程

1. 数据流向图

采集阶段: 机械臂 → [get_current_arm_state] → 位姿数据 → 写入poses.txt ↑ 同步触发('s'键) ↓ 相机 → [RealSense SDK] → 图像帧 → 保存为.jpg文件 计算阶段: poses.txt → [save_poses.py/2] → 机械臂变换矩阵(R_tool, t_tool) ↓ .jpg文件 → [角点检测] → 图像点集 → [calibrateCamera] → 标定板位姿(rvecs, tvecs) ↓ [calibrateHandEye] → 手眼变换矩阵(R, t) → 输出旋转矩阵/平移向量/四元数

总结

本代码库提供了一套完整的手眼标定解决方案,通过模块化设计实现了数据采集、标定计算等核心功能。无论是眼在手上还是眼在手外模式,都能通过简单的操作流程完成标定。实际应用中,需注意机械臂运动姿态的多样性和标定板的稳定性,以获得更高的标定精度。

通过本文的解析,相信读者已经对该代码库有了全面的了解,可以根据实际需求进行二次开发或直接应用于机器人视觉项目中。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/20 7:30:33

EmotiVoice在语音贺卡类产品中的商业化应用

EmotiVoice在语音贺卡类产品中的商业化应用 在一张小小的生日贺卡里,听到孩子用熟悉的声音说“妈妈,我好想你”,声音微微颤抖,带着笑意——这种瞬间的情感冲击,远非文字或静态图像所能承载。而今天,这样的体…

作者头像 李华
网站建设 2026/4/17 14:31:52

EmotiVoice在智能客服系统中的集成与优化方案

EmotiVoice在智能客服系统中的集成与优化方案 在金融、电信和电商等行业,客户对服务体验的期待早已超越“能听懂、会回答”的基本功能。当用户拨通客服热线时,他们希望感受到的是理解与共情,而不是冰冷的机械音重复标准话术。然而&#xff0c…

作者头像 李华
网站建设 2026/4/21 2:56:20

Kotaemon时间敏感信息处理策略探讨

Kotaemon时间敏感信息处理策略探讨 在金融、医疗和公共政策等高时效性领域,一个智能问答系统如果还在引用去年的税率标准或前年的疫情管控措施,那它带来的就不是便利,而是风险。这正是当前许多基于检索增强生成(RAG)的…

作者头像 李华
网站建设 2026/4/17 20:06:18

Day 42 深度学习可解释性:Grad-CAM 与 Hook 机制

在深度学习领域,卷积神经网络(CNN)往往被视为“黑盒”。虽然它们在图像分类等任务上表现出色,但我们很难直观理解模型究竟是根据图像的哪些部分做出的判断。Grad-CAM(Gradient-weighted Class Activation Mapping&…

作者头像 李华
网站建设 2026/4/21 23:29:20

Clean Architecture(整洁架构)前端版:Entities、Use Cases 与 Presenters 的分层

Clean Architecture(整洁架构)前端版:Entities、Use Cases 与 Presenters 的分层实践 各位开发者朋友,大家好!今天我们来深入探讨一个在现代前端开发中越来越受重视的架构理念——Clean Architecture(整洁架构)。它最初由 Robert C. Martin(Uncle Bob)提出,主要应用…

作者头像 李华
网站建设 2026/4/20 14:42:54

契约测试(Contract Testing):使用 Pact 保证前后端 API 接口的一致性

契约测试(Contract Testing):使用 Pact 保证前后端 API 接口的一致性 各位开发者朋友,大家好!今天我们来聊一个在现代软件开发中越来越重要的话题——契约测试(Contract Testing)。特别是在微服务架构盛行的今天,前后端分离、服务间频繁交互已经成为常态,如何确保接口…

作者头像 李华