news 2026/4/29 11:34:54

【论文阅读】Generative Text Steganography with Large Language Model(MM‘24)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
【论文阅读】Generative Text Steganography with Large Language Model(MM‘24)
  • 论文地址:Generative Text Steganography with Large Language Model

1. 摘要

提出问题:
现有生成式文本隐写大多是“白盒范式”:需要共享语言模型、训练词表以及逐步采样概率分布,才能建立“比特↔词/概率”的隐写映射。但在大模型(LLM)实际使用中,用户通常只能通过黑盒 API / UI 访问,拿不到词表与采样概率;同时,传统映射往往会扰动原始采样分布,带来安全风险与可检测性问题。

解决问题:
论文提出LLM-Stega:一种直接基于LLM 用户界面(UI)的黑盒生成式文本隐写方法。核心做法是:构造并优化“关键词集合”,设计加密的隐写映射把秘密比特映射到关键词索引;再通过拒绝采样(reject sampling)+ 反馈式提示词优化,保证关键词可被准确抽取,同时保持生成文本语义丰富、自然流畅。

2. 论文方法

LLM-Stega 的整体流程由4部分组成:关键词集构建 → 加密隐写映射 → 隐写文本生成(提示词驱动)→ 秘密提取(提示词驱动)。

1.关键词集构建(Keyword Set Construction)

  • 在黑盒条件下无法访问 LLM 的词表/概率,因此作者改为构建一个可控的“关键词集合”来承载秘密信息。
  • 每句文本选择 4 类关键词:subject / predicate / object / emotion。其中 emotion 子集给出 3 类情感词;其他子集各给出 16 个高概率词及其概率。
  • 为避免随机组合导致逻辑混乱、语义模糊,作者用 LLM 通过“评估提示词”对关键词组合进行打分/筛选,并据此优化关键词的采样概率,让后续生成更自然。

2.加密隐写映射(Encrypted Steganographic Mapping)

  • 直接用有限关键词编码会导致容量与安全性不足,因此先按优化后的概率进行重复采样扩增,形成“扩增关键词集”,再用关键词在扩增集中的位置索引来编码秘密比特。
  • 论文给出一个容量配置:subject/predicate/object 从 16 扩到2 18 2^{18}218;emotion 从 3 扩到2 10 2^{10}210,合计可编码3 × 18 + 10 = 64 3\times18+10=643×18+10=64bits(每句)。
  • 为防止固定索引暴露,作者引入 One-Time Password 思路:用“关键词重复次数”和“发布时间(日期/时/分)”的二进制做 XOR 得到私钥,从而提升对手截获映射表后的破解难度。

3.隐写文本生成与秘密提取(UI 级提示词 + 拒绝采样反馈优化)

  • Alice 选出承载比特的关键词后,通过 embedding prompt 利用 LLM 生成包含这些关键词的 stego text。
  • Bob 通过 extraction prompt 让 LLM 从 stego text 中“抽取关键词”,再结合共享侧信息(关键词集、OTP 机制、发布时间等)解码出秘密。
  • 难点在于:LLM 提取并非严格算法,可能抽错。为此提出基于reject sampling 的反馈优化机制:若抽取关键词与目标不一致,则用 feedback prompt 让 LLM解释错误原因,并迭代优化 embedding / generation / extraction prompts,直到无误(算法1)。作者称实验里两次拒绝采样即可确保逐句的正确提取。

3. 实验结果

实验设置与对比方法

  • 使用 GPT-4 的 UI 来实现黑盒隐写(两类主题:娱乐新闻、科幻电影影评)。
  • 对比:Arithmetic Coding(不同 bpw 版本)、ADG、Discop;并额外实现 Discop+LLaMA2 来验证“仅换大模型但仍白盒映射”是否足够。

主要量化结果

  • 容量(Embedding Capacity):LLM-StegaEN 达到 5.93 bpw,LLM-StegaRSciM 为 4.81 bpw;在长度接近自然新闻句长的同时取得更高容量。

  • 抗隐写分析(Anti-steganalysis):对 LS-CNN / BiLSTM-Dense / BERT-FT 三种分析器,LLM-Stega 的检测准确率接近 50%(如 51.55%、49.20%、50.00%),意味着更接近“随机猜测”,隐蔽性更强。

  • 统计不可感知性(KLD)与人工评测:图4显示 LLM-Stega 的 KLD 更低、人工流畅/连贯/相关性评分更高(论文结论为整体优于对比方法)。

  • 定性示例:表3给出的样例中,LLM-Stega 生成的句子更自然、语法正确且语义连贯;而一些传统方法会出现断裂、乱码或不连贯长段落。

  • 消融(提示词优化):Table 4显示从“初步→进一步→深度优化”的迭代后,拒绝率下降、文本质量提升,说明 reject sampling 驱动的提示词优化有效。

4. 前言

传统文本隐写从早期“同义词替换”等修改式方法发展到基于DNN的生成式方法,但现有生成式文本隐写方法普遍依赖白盒(white-box)条件(需要共享语言模型与概率分布),这与当下 LLM 的“高商用价值、黑盒访问为主”的现实矛盾。

因此提出一个新的研究问题:如何在仅能通过 LLM UI/API 的条件下实现安全、可用的生成式文本隐写。

5. 总结

LLM-Stega 的核心贡献可以概括为三点:
1.首次系统探索基于 LLM 用户界面(UI)的黑盒生成式文本隐写;
2.通过关键词集 + 扩增索引编码 + OTP/XOR 加密实现与 LLM 采样过程“解耦”的隐写映射,减少对原始生成分布的扰动;
3.用 reject sampling 的反馈式提示词优化在黑盒场景下兼顾“可准确提取”与“语义自然”。综合实验表明其在容量、安全性与文本质量上整体优于对比方法。

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/22 13:14:24

内存不足导致崩溃?优化建议来了

内存不足导致崩溃?优化建议来了 OCR文字检测任务对计算资源要求较高,尤其是使用ResNet18作为骨干网络的cv_resnet18_ocr-detection模型,在处理高分辨率图像或批量任务时,内存占用容易飙升。不少用户反馈:服务启动后不…

作者头像 李华
网站建设 2026/4/23 14:13:42

亲测有效!用fft npainting lama轻松去除照片中多余物体

亲测有效!用fft npainting lama轻松去除照片中多余物体 在日常处理照片时,你是否也遇到过这些困扰:旅游照里突然闯入的路人、产品图上碍眼的水印、老照片里模糊的污渍、会议合影中想悄悄“隐身”的某位同事……过去,这类问题往往…

作者头像 李华
网站建设 2026/4/25 15:36:46

Fun-ASR批量处理功能实测,10个音频1次搞定

Fun-ASR批量处理功能实测,10个音频1次搞定 你有没有过这样的经历:会议录音存了10个文件,培训音频攒了8段,客户访谈录了5条……全等着转文字写纪要。手动一个一个上传、点识别、等结果、复制粘贴——光是操作就耗掉一小时&#xf…

作者头像 李华
网站建设 2026/4/28 23:00:06

GroupRank:分组重排,让大模型在 RAG 中又快又好地“挑重点”

前言在当前主流的检索增强生成(RAG)系统中,重排序(Reranking)环节扮演着“守门员”的角色——它决定了哪些上下文真正值得被送入大语言模型进行生成。过去几年,研究者们尝试了多种方式让大模型参与重排序&a…

作者头像 李华
网站建设 2026/4/17 4:28:51

粉丝听不出差别?虚拟偶像团队用IndexTTS 2.0应急配音

粉丝听不出差别?虚拟偶像团队用IndexTTS 2.0应急配音 你有没有刷到过一条虚拟偶像的日常vlog,语气自然、节奏轻快,连粉丝评论都在问:“今天是真人出镜吗?”——结果后台显示,这条视频的配音,是…

作者头像 李华
网站建设 2026/4/24 17:42:26

SiameseUniNLU镜像免配置优势:390MB模型+完整依赖打包,交付即运行

SiameseUniNLU镜像免配置优势:390MB模型完整依赖打包,交付即运行 1. 为什么说“交付即运行”不是口号而是现实 你有没有遇到过这样的情况:下载了一个看起来很厉害的NLP模型,兴冲冲地准备跑起来,结果卡在第一步——环…

作者头像 李华