news 2026/4/10 18:41:48

在POSIX标准中的信号

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
在POSIX标准中的信号

在POSIX标准中,信号是用于进程间通信、中断处理及事件通知的核心机制,定义了进程对特定事件的响应行为。以下从定义、分类、常见信号及处理机制四方面系统解析:

1. 定义与标准背景

  • POSIX信号:遵循IEEE 1003(ISO/IEC 9945)标准,确保跨UNIX-like系统的可移植性。Linux虽未正式认证,但实现了大部分POSIX信号规范。
  • 核心功能:异步通知进程特定事件(如用户中断、子进程终止、硬件异常等),支持进程通过信号处理函数自定义响应。

2. 信号分类

  • 按可靠性
    • 不可靠信号(1-31):早期UNIX设计,可能丢失(如SIGINT、SIGQUIT)。Linux通过内核优化减少丢失,但理论仍存在风险。
    • 可靠信号(32-63):实时信号(SIGRTMIN-SIGRTMAX),支持排队,避免丢失,适用于高精度同步。
  • 按行为
    • 终止类(Term):默认终止进程(如SIGKILL、SIGTERM)。
    • 核心转储类(Core):终止进程并生成内存快照(如SIGSEGV、SIGABRT)。
    • 暂停/继续类(Stop/Cont):暂停(SIGSTOP)或恢复(SIGCONT)进程。
    • 忽略类(Ign):默认忽略(如SIGCHLD、SIGURG)。

3. 常见信号及默认行为

信号名默认行为含义与场景
SIGHUP1Term控制终端挂起或进程死亡(如SSH断开)
SIGINT2Term键盘中断(Ctrl+C)
SIGQUIT3Core终端退出(Ctrl+\),生成核心转储
SIGKILL9Term强制终止进程(不可捕获/忽略)
SIGSTOP17Stop暂停进程(不可捕获/忽略)
SIGCHLD17/18Ign子进程终止/暂停(父进程默认忽略)
SIGALRM14Term定时器超时(如alarm()设置)
SIGSEGV11Core非法内存访问(段错误)
SIGPIPE13Term向无读端的管道/Socket写入数据
SIGUSR1/210/12Term用户自定义信号(可自定义处理)

4. 信号处理机制

  • 处理函数设置
    • signal():早期函数,设置信号捕获、忽略或默认行为(如signal(SIGINT, SIG_IGN)忽略中断)。
    • sigaction():POSIX推荐函数,支持更精细控制(如信号掩码、重启系统调用)。
  • 关键规则
    • 不可捕获/忽略:SIGKILL、SIGSTOP无法被程序干预。
    • 信号排队:可靠信号支持排队,不可靠信号可能丢失。
    • 系统调用中断:进程在阻塞系统调用(如read、accept)时收到信号,默认返回EINTR错误,需手动重启或处理。
  • 子进程僵死处理:父进程捕获SIGCHLD后,需通过waitpid()循环清理终止的子进程,避免资源泄漏。

5. 实际应用示例

  • 进程间同步:使用POSIX有名/无名信号量(如sem_wait、sem_post)实现线程/进程互斥。
  • 网络编程:处理SIGPIPE(忽略以避免断开连接时进程终止)、SIGURG(Socket紧急数据通知)。
  • 作业控制:通过SIGTSTP(Ctrl+Z)、SIGCONT控制进程暂停/恢复。

总结:POSIX信号是UNIX-like系统事件驱动的核心,理解其分类、默认行为及处理机制,对编写健壮的进程管理、网络服务及系统程序至关重要。需注意不同信号的不可变性(如SIGKILL)及实时信号的可靠性优势,结合sigaction等函数实现精准控制。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/8 17:02:12

diskinfo命令行工具使用:分析GPU服务器磁盘I/O瓶颈

diskinfo命令行工具使用:分析GPU服务器磁盘I/O瓶颈 在现代AI训练集群中,一块价值数万元的GPU卡可能正因几块老旧SSD而“饥饿”停摆。这种现象并不罕见——当ResNet-50模型每轮训练耗时从25分钟飙升至45分钟,nvidia-smi显示GPU利用率长期徘徊在…

作者头像 李华
网站建设 2026/4/9 1:03:59

HuggingFace Dataset流式加载:处理超大规模token数据集

HuggingFace Dataset流式加载:处理超大规模token数据集 在训练百亿参数语言模型时,你是否曾因加载一个TB级语料库而遭遇内存崩溃?或者花费数小时等待数据预处理完成,结果GPU却闲置了大半时间?这并非个例。随着LLM进入“…

作者头像 李华
网站建设 2026/3/31 0:14:48

YOLOv5s模型转ONNX格式:借助PyTorch-CUDA完成导出

YOLOv5s模型转ONNX格式:借助PyTorch-CUDA完成导出 在现代AI部署流程中,一个训练好的深度学习模型往往不能直接“上线”。尤其是在目标检测这类对实时性要求极高的场景下,从实验室的 .pt 文件到边缘设备上的高效推理引擎之间,横亘…

作者头像 李华
网站建设 2026/3/28 6:38:01

CNN图像分类实战:基于PyTorch-CUDA-v2.8的端到端训练

CNN图像分类实战:基于PyTorch-CUDA-v2.8的端到端训练 你有没有经历过这样的场景?明明买了一块RTX 3090显卡,满怀期待地跑起CNN模型,结果发现训练速度还没隔壁用笔记本的同学快——一查才发现,模型压根没上GPU&#xff…

作者头像 李华
网站建设 2026/4/10 12:28:59

Git下载大型模型权重文件失败?教你用git-lfs和镜像加速解决

Git下载大型模型权重文件失败?教你用git-lfs和镜像加速解决 在尝试克隆一个Hugging Face上的LLaMA-2适配模型仓库时,你是否曾经历过这样的场景:git clone 命令执行到一半卡住、内存爆满、最终报错“fatal: the remote end hung up unexpected…

作者头像 李华
网站建设 2026/4/10 12:16:29

Markdown表格对比不同PyTorch版本特性

PyTorch-CUDA-v2.8 镜像深度解析:从环境配置到高效开发的实践指南 在深度学习项目中,最让人头疼的往往不是模型设计本身,而是“为什么代码在我机器上跑不起来?”——这个经典问题背后,通常是 Python 版本、PyTorch 构…

作者头像 李华