news 2026/2/8 23:46:57

LLM-Supported Manufacturing Mapping Generation

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
LLM-Supported Manufacturing Mapping Generation

1. 论文基本信息

  • 题目: LLM-Supported Manufacturing Mapping Generation (大语言模型支持的制造业映射生成)
  • 作者: Wilma Johanna Schmidt, Irlan Grangel-González, Adrian Paschke, Evgeny Kharlamov
  • 机构:
    • Robert Bosch GmbH (德国博世集团), Corporate Research
    • Freie Universität Berlin (柏林自由大学), AG Corporate Semantic Web
    • Fraunhofer Institute FOKUS (德国弗劳恩霍夫研究所)
  • 发表地点与年份: Transactions on Graph Data and Knowledge (TGDK), 2025.
  • 关键词: Mapping Generation, Knowledge Graph Construction, Ontology Reduction, RML, YARRRML, LLM, Manufacturing.

2. 摘要(详细复述)

  • 背景: 在像博世这样的大型制造公司,数据分散在成千上万条生产线和不同的数据库中(如ERP, CMDB, MaPro)。即使是简单的库存查询(如某设备的位置和数量)也变得非常复杂,需要整合多个异构数据集。这不仅耗时、容易出错,还需要领域专家和知识工程专家的共同努力。
  • 方案概述: 知识图谱 (KGs) 是整合库存数据的有效手段,但其构建和维护本身具有挑战性,特别是需要创建映射 (mappings)来连接数据集和本体。本文提出了一种利用大型语言模型 (LLM) 支持并结合上下文增强的方法,用于自动生成YARRRMLRML两种格式的映射。
  • 主要挑战与方法: 面对制造业领域本体庞大和 LLM 提示词 (prompt) token 限制的问题,作者评估了三种本体缩减 (ontology reduction)方法。
  • 结果与意义: 通过与专家手动创建的黄金标准映射进行定量对比,以及专家定性反馈,评估了该方法的有效性。结果表明,通过合理的配置(如 prompt 增强和本体缩减),LLM 可以有效支持制造业映射的生成,减少专家工作量。论文还公开了源代码。

3. 研究背景与动机

  • 学术/应用场景:

    • 场景: 制造业(如博世)拥有海量的设备和复杂的生产流程,数据被隔离在不同的系统(Silos)中。例如,MaPro(生产项目管理)、CMDB(配置管理数据库)、anERP(企业资源计划)。
    • 痛点: 跨系统的数据查询(如“特定工厂有多少台绕线机?”)需要人工整合数据,不仅效率低,而且难以应对数据的频繁变更。
    • 语义网方案: 利用本体和知识图谱 (KG) 来统一数据格式并建立链接。核心步骤是创建声明式映射 (Declarative Mappings)(如 RML, YARRRML),将源数据(如 CSV, SQL)映射到目标本体。
    • 核心痛点: 手动创建映射需要同时精通领域知识(理解源数据)和语义技术(理解本体和映射语法),门槛高且维护成本大。
  • 主流路线与局限:

方法分类优点不足之处
手动映射准确性高,符合领域需求。耗时费力,需要跨领域专家协作,难以扩展。
基于规则/模式匹配的自动化自动化程度高。难以处理制造业中源数据列名与本体术语差异巨大的情况(词汇异构性),灵活性差。
深度学习 (Deep Learning)可处理复杂模式。需要大量标注数据进行训练,这在特定制造领域往往不可用。
现有 LLM 方法零样本/少样本能力强。现有研究多关注非结构化数据或通用领域;在制造业中,面临本体过大(超出 context window)、术语专业性强、映射语法复杂等挑战。且现有工作多未考虑 YARRRML 语法。
  • 本文动机: 探索能否利用 LLM 的代码生成和语义理解能力,辅助专家生成高质量的制造业数据映射。特别是如何通过RAG (检索增强生成)本体缩减来解决 LLM 在处理大型专业本体时的限制。

4. 问题定义(形式化)

  • 输入:
    • 数据源样本 (DDD): 关系型数据库的样本(如 CSV 格式的列名和部分数据行)。
    • 目标本体 (OOO): 描述制造业领域的 OWL 本体(如 CIMM 本体)。
    • 上下文增强 (EEE): 包括映射模板、Few-shot 示例等。
    • 指令 (III): 提示词说明。
  • 中间过程:
    • 本体缩减 (Oreduced=f(O,D)O_{reduced} = f(O, D)Oreduced=f(O,D)): 根据数据源DDD从大本体OOO中提取相关子集。
  • 输出:
    • 映射文件 (MMM): 符合 RML 或 YARRRML 语法的映射文件,将DDD映射到OreducedO_{reduced}Oreduced
    • 知识图谱 (KGKGKG): 执行映射MMM后生成的 RDF 三元组。
  • 评测目标:
    • 生成的映射MMM与专家手动创建的黄金标准映射MgoldM_{gold}Mgold的相似度(Precision, Recall, F1)。
    • 生成的KGKGKG的质量。

5. 创新点(逐条可验证)

  1. 首个制造业 LLM 映射生成探索: 首次在复杂的制造业场景下,系统地探索了利用 LLM 生成 YARRRML 和 RML 映射,作为专家辅助工具。
  2. 结合 RAG 和本体缩减的架构 (MYAM+R): 提出了一种名为MYAM+R的架构,创新性地结合了基于上下文的本体缩减检索增强生成 (RAG)。针对制造业本体庞大的问题,通过只向 LLM 提供与当前数据源相关的本体片段,解决了 Token 限制并提高了生成精度。
  3. 多维度的实验评估: 不仅评估了 RML,还评估了更人性化的 YARRRML 格式。不仅进行了基于代码相似度的定量评估(F1, Precision, Recall),还引入了专家的定性反馈,提供了更全面的实用性分析。
  4. 实用的本体缩减策略对比: 对比了三种本体缩减策略(Naive, Similarity-based, LLM-based),为实际应用提供了具体的配置建议。

6. 方法与核心思路(重点展开)

整体框架 (MYAM+R)

架构如图 3 所示,主要包含输入、处理和输出三个部分。核心是Mapping Generation模块,它协调其他模块来构建最终的 Prompt。

Output & Eval
Processing
Input
Generated Mapping
KG Generation
Evaluation vs Gold Standard
Ontology Reduction
Prompt Preparation
LLM Mapping Generation
Data Sample
Ontology
Context Enhancements
Prompt Instructions
步骤分解与模块详解
  1. 输入模块:

    • Data Sample: 提供 CSV 格式的数据。配置包括:仅列头、列头+20行数据、列头+200行数据。这是为了探究 LLM 需要多少数据上下文才能理解语义。
    • Ontology: 制造业领域的 OWL 本体(基于 CIMM 模型)。
    • Enhancements: 提供 RAG 检索到的 Few-shot 示例或通用模板,帮助 LLM 学习映射语法。
  2. 本体缩减 (Ontology Reduction):
    这是解决 Prompt Token 限制的关键。论文对比了三种策略:

    • Naive (朴素法): 仅保留核心类及其直接属性(rdf:type, rdfs:label 等),移除无关的复杂约束。这是一种基于规则的简化。
    • Similarity-based (基于相似度): 使用轻量级模型 (DistilBERT) 计算数据列名与本体元素(类、属性)的语义相似度,仅保留相似度超过阈值的本体元素及其邻域。
    • LLM-based (基于 LLM): 将数据样本和本体作为 Prompt 发送给 LLM,让 LLM 决定哪些本体元素与数据相关并返回缩减后的本体。
  3. 映射生成 (Mapping Generation):

    • Prompt 构建: 将缩减后的本体、数据样本、Few-shot 示例(通过向量检索从库中选取最相似的示例)和指令组装成 Prompt。
    • 模型: 使用gpt-4-turbo
    • 语法验证: 生成后,首先检查输出是否符合 YARRRML/RML 语法。如果语法错误,直接标记为失败。
  4. KG 生成与评估:

    • 使用生成的映射和原始数据生成 RDF。
    • 与专家创建的 Gold Standard 映射进行对比,计算 Precision, Recall, F1。注意,这里使用的是松弛匹配 (Relaxed Match),即比较生成的三元组(Subject, Predicate, Object)是否在参考集中,但不严格要求 Subject IRI 的字符串完全一致(因为自动生成的 IRI 往往与人工定义的规则不同,只要逻辑正确即可)。
关键设计选择
  • 为什么选择 YARRRML 和 RML?RML 是标准但冗长,YARRRML 是 RML 的简化版,更易读写。同时评估两者可以探究 LLM 对不同语法的掌握程度。
  • 为什么需要本体缩减?制造业本体通常很大,直接放入 Prompt 会超出 Token 限制或引入噪声导致幻觉。
  • RAG 的作用: 用于从历史映射库中检索最相关的 Few-shot 示例,让 LLM 学习类似的映射模式。

7. 实验设置

  • 数据集: 来自 Bosch 的三个真实数据集:
    1. MaPro: 制造项目管理数据 (17列, 2215行)。
    2. CMDB: 配置管理数据库 (16列, 18082行)。
    3. anERP: 企业资源计划数据 (17列, 15451行)。
  • 本体: 对应上述三个领域的专有本体,基于 CIMM 标准。
  • 对比配置:
    • 数据量: Columns-only, First-20-rows, First-200-rows.
    • 本体缩减: Naive, Similarity, LLM-based.
    • 上下文增强: Zero-shot, Zero-shot+Template, Few-shot (RAG).
    • 映射语言: YARRRML, RML.
    • 总共组合出 27 种配置 (YARRRML) 和 12 种配置 (RML,部分配置因时间限制未跑全)。
  • 评价指标: F1-score, Precision, Recall (基于生成的三元组与 Gold Standard 的对比)。

8. 实验结果与分析

主结果表
  • YARRRML 最佳表现 (Table 2):

    • 最佳配置:Naive 本体缩减 + Template 增强 + First-20-rows 数据
    • 平均 F1:0.74
    • 在 anERP 数据集上甚至达到了F1=0.95(Few-shot 配置)。
  • RML 最佳表现 (Table 3):

    • 最佳配置:Naive 本体缩减 + Few-shot 增强 + First-20-rows 数据
    • 平均 F1:0.70
    • RML 的生成稳定性略高于 YARRRML(所有实验均生成了有效的映射文件)。
详细分析与消融
  1. 数据量的影响:

    • 仅提供列名 (Columns-only) 效果最差。
    • First-20-rows效果最好。
    • 增加到 200 行并没有带来明显提升,甚至在某些情况下(如 Similarity-based 缩减)导致性能下降或运行超时。这说明少量样本已足够 LLM 理解语义,过多数据反而可能成为噪声或触碰 Token 限制。
  2. 本体缩减策略的影响 (Table 4):

    • Naive (朴素法)Similarity-based (相似度法)表现最好,尤其是在简单的 anERP 数据集上达到了 F1=1.0 的本体还原度。
    • LLM-based的本体缩减效果反而较差 (F1=0.43),主要原因是 LLM 倾向于“过度缩减”,遗漏了必要的对象属性 (Object Properties)。
  3. 上下文增强的影响:

    • Few-shot (RAG)能够显著提高Precision(准确率),说明示例能帮助 LLM 学习正确的映射模式,减少幻觉。
    • TemplateRecall(召回率)有帮助,提供了基本的结构框架。
  4. 专家定性评估:

    • 专家对生成的映射表示“满意”或“非常满意”。
    • 虽然生成的 IRI (资源标识符) 经常与专家的命名习惯不一致(导致 Exact Match 低),但这通常容易修正,核心的类和属性映射逻辑是正确的。
    • 专家认为该工具能显著减少工作量(从头开始 vs 修改草稿)。

9. 复现性清单

  • 代码: 开源于 GitHubhttps://github.com/boschresearch/myamr_tgdk
  • 数据: 提供了示例数据集和本体(因为真实工业数据保密),但代码逻辑可复现。
  • 模型: 明确指定使用gpt-4-turbo (1106-Preview),使用了langchainsentence-transformers等库。
  • Prompt: 论文中详细描述了 Prompt 的构成,仓库中包含具体模板。

10. 结论与未来工作

  • 结论:

    • LLM 支持的映射生成是可行的,能够为领域专家提供有价值的“初稿”。
    • MYAM+R架构通过本体缩减和 RAG 机制,有效解决了工业界大本体和 Token 限制的矛盾。
    • 简单的Naive 本体缩减配合少量数据样本 (20行)Few-shot/Template往往能取得最佳的性价比。
  • 未来工作:

    1. 评估更多 LLM: 测试开源模型 (如 Llama 3) 的表现。
    2. 改进数据输入: 不仅使用 CSV,直接连接关系数据库进行采样。
    3. 多跳/复杂映射: 探索更复杂的映射逻辑(如多表连接、条件映射)。
    4. 用户界面: 开发可视化前端,方便专家进行交互式修改(Human-in-the-loop)。
版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/2/6 9:48:49

macOS开源应用终极指南:免费提升工作效率的完整方案

macOS开源应用终极指南:免费提升工作效率的完整方案 【免费下载链接】open-source-mac-os-apps serhii-londar/open-source-mac-os-apps: 是一个收集了众多开源 macOS 应用程序的仓库,这些应用程序涉及到各种领域,例如编程、生产力工具、游戏…

作者头像 李华
网站建设 2026/2/4 9:57:43

ASMR音频下载终极指南:从零开始快速上手

ASMR音频下载终极指南:从零开始快速上手 【免费下载链接】asmr-downloader A tool for download asmr media from asmr.one(Thanks for the asmr.one) 项目地址: https://gitcode.com/gh_mirrors/as/asmr-downloader 还在为找不到高质量的ASMR音频资源而烦恼…

作者头像 李华
网站建设 2026/2/7 17:22:47

Docker Compose与Kubernetes下的智能Agent互联对比(仅限高级用户)

第一章:智能 Agent 的 Docker 容器互联在分布式系统中,多个智能 Agent 通常以独立服务的形式运行,Docker 容器化技术为这些 Agent 提供了轻量级、可移植的运行环境。实现容器间的高效互联是保障 Agent 协同工作的关键。通过自定义 Docker 网络…

作者头像 李华
网站建设 2026/2/5 14:54:53

【Q#开发进阶必备】:掌握VSCode重构工具的7个黄金法则

第一章:Q# 程序的 VSCode 重构工具概述Visual Studio Code(VSCode)作为量子计算开发的重要集成环境,为 Q# 语言提供了强大的重构支持。借助 Quantum Development Kit(QDK)插件,开发者能够在编写…

作者头像 李华
网站建设 2026/2/7 4:13:20

3大突破性纹理压缩方案:光线追踪性能实现3倍飞跃

3大突破性纹理压缩方案:光线追踪性能实现3倍飞跃 【免费下载链接】raytracing.github.io Main Web Site (Online Books) 项目地址: https://gitcode.com/GitHub_Trending/ra/raytracing.github.io 开篇痛点 当你运行光线追踪程序时,是否经常遭遇…

作者头像 李华
网站建设 2026/2/6 5:48:25

如何实现Q#对Python异常的无缝传递?5个关键技术点让你少走三年弯路

第一章:Q#-Python 的异常传递在混合量子-经典计算编程中,Q# 与 Python 的互操作性为开发者提供了灵活的开发模式。然而,在跨语言调用过程中,异常处理机制变得尤为关键。当 Q# 代码在执行量子操作时发生错误,如何将这些…

作者头像 李华