news 2026/1/8 11:55:58

自然语言处理容易混淆知识点(一)c-TF-IDF和TF-IDF的区别

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
自然语言处理容易混淆知识点(一)c-TF-IDF和TF-IDF的区别

c-TF-IDF 和 TF-IDF

    • 什么是 c-TF-IDF?
      • 传统 TF-IDF
      • c-TF-IDF(基于类的 TF-IDF)
    • c-TF-IDF 的计算公式
    • 直观理解
    • 在 BERTopic 中的工作流程
    • 代码示例:使用 c-TF-IDF
    • 与传统 TF-IDF 对比
    • c-TF-IDF 的优势
    • 自定义 c-TF-IDF 参数
    • 可视化 c-TF-IDF 权重
    • 总结

BERTopic 中一个非常核心的概念——c-TF-IDF(class-based TF-IDF)。这是 BERTopic 区别于其他主题模型的关键创新点。

什么是 c-TF-IDF?

传统 TF-IDF

  • TF(词频):一个词在单个文档中出现的频率
  • IDF(逆文档频率):衡量一个词在所有文档中的普遍性
  • 应用对象:单个文档

c-TF-IDF(基于类的 TF-IDF)

  • 每个主题视为一个"文档类"
  • 计算时:一个主题(类)vs所有其他主题(类)
  • 应用对象:整个主题/类别

c-TF-IDF 的计算公式

c-TF-IDF(w, c) = tf(w, c) × log(1 + N / df(w))
  • tf(w, c):词 w 在主题 c 的所有文档中出现的总次数
  • N:主题总数
  • df(w):包含词 w 的主题数量

直观理解

假设我们有 3 个主题:科技、体育、政治

科技主题体育主题政治主题是否适合做主题词
“算法”高频几乎无偶尔出现✅ 优秀(区分度高)
“比赛”低频高频低频✅ 优秀
“政策”低频低频高频✅ 优秀
“非常”中频中频高频❌ 差(普遍性高)
“重要”高频高频高频❌ 差(无区分度)

在 BERTopic 中的工作流程

frombertopicimportBERTopicfrombertopic.vectorizersimportClassTfidfTransformer# 1. 文档聚类(使用嵌入和聚类算法)# docs → 文档嵌入 → 聚类 → 得到主题标签# 2. 为每个主题创建词袋表示# 同一主题的所有文档合并 → 统计词频# 3. 应用 c-TF-IDFctfidf_model=ClassTfidfTransformer(reduce_frequent_words=True,# 降低过于频繁的词的权重bm25_weighting=True,# 使用 BM25 风格的权重(可选))# 4. 得到每个主题的 top N 关键词topic_keywords=ctfidf_model.transform(topic_word_frequencies)

代码示例:使用 c-TF-IDF

frombertopicimportBERTopicfrombertopic.vectorizersimportClassTfidfTransformerimportnumpyasnp# 示例文档docs=["机器学习算法需要大量数据","深度学习是机器学习的一个分支","篮球比赛需要团队合作","足球运动员需要良好的体能","政府发布了新的经济政策","外交关系对国家发展很重要"]# 1. 创建 BERTopic 模型,自定义 c-TF-IDF 参数ctfidf_model=ClassTfidfTransformer(bm25_weighting=True,# 使用 BM25 而非传统 TF-IDFreduce_frequent_words=True,# 降低常见词的权重diversity=0.5# 增加多样性(可选))topic_model=BERTopic(ctfidf_model=ctfidf_model,# 使用自定义的 c-TF-IDFmin_topic_size=2,# 每个主题最少文档数verbose=True)# 2. 训练模型topics,probabilities=topic_model.fit_transform(docs)# 3. 查看主题关键词(基于 c-TF-IDF 排序)print("主题和关键词:")fortopic_numinset(topics):iftopic_num!=-1:# 跳过异常值(-1 表示未聚类)topic_info=topic_model.get_topic(topic_num)print(f"\n主题{topic_num}:")forword,scoreintopic_info[:5]:# 前5个关键词print(f"{word}:{score:.4f}")# 4. 查看 c-TF-IDF 矩阵print("\n=== c-TF-IDF 矩阵形状 ===")ifhasattr(topic_model,'c_tf_idf_'):print(f"矩阵形状:{topic_model.c_tf_idf_.shape}")print(f"(主题数 × 词汇表大小)")

与传统 TF-IDF 对比

fromsklearn.feature_extraction.textimportTfidfVectorizerimportpandasaspd# 传统 TF-IDF(文档级别)vectorizer=TfidfVectorizer()X_tfidf=vectorizer.fit_transform(docs)print("传统 TF-IDF 矩阵形状:",X_tfidf.shape)# (6个文档 × 词汇表大小)# c-TF-IDF(主题级别)# 假设我们已经有主题标签:[0, 0, 1, 1, 2, 2]# BERTopic 内部会合并同一主题的文档# 得到矩阵形状: (3个主题 × 词汇表大小)

c-TF-IDF 的优势

  1. 主题导向:为整个主题选择最具代表性的词
  2. 去噪能力:自动降低常见词(如"的"、“是”)和停用词的权重
  3. 可解释性:每个主题的关键词都是基于统计的,容易理解
  4. 效率高:只在主题级别计算,而非文档级别

自定义 c-TF-IDF 参数

frombertopic.vectorizersimportClassTfidfTransformer# 配置选项ctfidf_config={# BM25 参数"bm25_weighting":True,# 使用 BM25(更好的长文档处理)"k1":1.2,# BM25 k1 参数(控制词频饱和度)"b":0.75,# BM25 b 参数(控制文档长度归一化)# 传统 TF-IDF 参数"reduce_frequent_words":True,# 降低过于频繁的词的权重"diversity":None,# 可选:0-1,增加关键词多样性}ctfidf_model=ClassTfidfTransformer(**ctfidf_config)# 或者在创建 BERTopic 时直接传递topic_model=BERTopic(ctfidf_model=ctfidf_model,# ... 其他参数)

可视化 c-TF-IDF 权重

importmatplotlib.pyplotasplt# 获取特定主题的关键词和权重topic_num=0topic_words=topic_model.get_topic(topic_num)# 提取词和权重words=[wordforword,scoreintopic_words[:10]]scores=[scoreforword,scoreintopic_words[:10]]# 绘制条形图plt.figure(figsize=(10,6))plt.barh(words,scores)plt.xlabel('c-TF-IDF 权重')plt.title(f'主题{topic_num}的关键词权重')plt.gca().invert_yaxis()# 最高权重在顶部plt.show()

总结

c-TF-IDF 是 BERTopic 的"大脑",它:

  • 将传统 TF-IDF 从文档级别提升到主题级别
  • 自动识别每个主题最具有区分度的关键词
  • 配合嵌入模型,既考虑语义相似度,又考虑统计显著性
  • 使得生成的主题标签既准确又可解释

这就是为什么 BERTopic 既能处理海量文档,又能生成高质量、易理解的主题!

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2025/12/24 13:26:15

14、开源办公与网络应用全解析

开源办公与网络应用全解析 在数字化办公与网络交流的大环境下,有许多实用的工具和应用能帮助我们更高效地完成工作和沟通。下面将详细介绍一些开源办公软件以及网络应用的特点和使用方法。 文档转换与注意事项 当文档转换完成后,进度屏幕会显示转换过程的结果。不过需要注…

作者头像 李华
网站建设 2025/12/24 20:20:55

Ubuntu安装及相关设置

Ubuntu安装及相关设置 分区设置参考 个人推荐,不用软件数据存放的位置不同,避免安装时大量修改配置,耗时耗力。挂载点大小类型备注/boot/efi512MB(默认即可)EFIUEFI必选swap内存2倍(4G/8G)swap休…

作者头像 李华
网站建设 2026/1/7 2:04:40

8、网络技术:VXLAN BGP EVPN中的关键特性解析

网络技术:VXLAN BGP EVPN中的关键特性解析在网络技术的发展中,VXLAN BGP EVPN 架构凭借其高效、灵活的特点,成为了大型数据中心网络的重要解决方案。本文将深入探讨该架构中的几个关键特性,包括 IGMP 窥探、分布式 IP 任播网关、集…

作者头像 李华
网站建设 2025/12/25 17:56:23

18、数据中心外部连接性设计与实现

数据中心外部连接性设计与实现1. 外部连接性概述数据中心为用户托管数据和应用程序,而用户通常位于数据中心外部。因此,数据中心的外部连接性设计至关重要,它涉及到不同的放置选项和互连选项,包括Layer 3和Layer 2的连接性选项。对…

作者头像 李华
网站建设 2025/12/26 3:21:07

Dify前端开发完全指南:从入门到精通,收藏这篇就够了

摘要 本文全面介绍了Dify前端开发框架,包括环境搭建、开发流程、测试方法以及部署实践。通过详细的步骤说明和丰富的代码示例,帮助开发者快速掌握Dify前端开发技能,构建高质量的AI应用界面。 目录 Dify前端框架概述开发环境搭建项目配置详…

作者头像 李华
网站建设 2025/12/30 5:25:02

ChatGPT-5.2的“静默爆发”与行业的九级地震

各位科技爱好者、职场同行、以及所有被AI浪潮推着走的朋友们,请注意了! 如果说GPT-4是AI普及化的“奇点”,那么OpenAI新发布的ChatGPT-5.2,则标志着“后GPT-4时代”的正式终结,以及“AI深度专业化时代”的开启。 为什…

作者头像 李华