去年年底,我的工具上线半年,DAU 突然开始下滑。
起初以为是季节性波动,后来仔细查了一圈才发现——用户不是从搜索引擎流失的,是从 AI 推荐里消失的。
用 ChatGPT 问"有什么好用的 XX 工具",返回的是竞品的名字。用 Claude 问同类场景,我的产品排在第 5 条,描述还带着一句"功能尚不完善"。
我自己做的产品,被 AI 推成了这样,我却完全不知道。
这就是 GEO 问题——Generative Engine Optimization,生成式引擎优化。AI 时代,用户的第一入口从搜索框变成了对话框,但大多数开发者对"AI 怎么评价自己的产品"还是一团黑雾。
第一步 让数据说话
我做的第一件事,是把这团黑雾变成可量化的数字。
这就是 https://github.com/veeicwgy/geo-monitor-toolkit 的起点。
它做一件事:持续追踪多个主流 AI 模型对你产品的评价,并给出可量化的 GEO 分数。
跑一次监控之后,你会拿到 4 个核心指标:
我第一次跑完,提及率是 12%,情感极性 -0.3(轻度负面),能力描述里还有一个已经下线半年的功能被反复提及。
数字摆在那里,反而平静了——至少我知道问题在哪了。
第二步:内容修复,但不能靠手动
GEO 问题的根本是内容问题:AI 模型的"认知"来自它训练时抓取的内容。你要修复 AI 的印象,就得持续输出高质量的、被 AI 信任的平台上的内容。
但这里有个现实困境:
一个人运营,哪来时间天天写?
写出来的东西,怎么保证不同平台的语气适配?
怎么把"去 AI 味"做进流程,不让内容一眼就像 GPT 生成的?
这就是我做 https://github.com/veeicwgy/ip-publisher 的原因。
它是一套以人设驱动的内容自动化工作流,把从热点发现到多平台发布的完整链路串成可复用的 Agent Skill 集合:
1. 热点发现 → 选题过滤 → 平台改写(7 个平台)→ 去 AI 味 → 封面生成 → 发布
核心亮点:
人设驱动:不是"生成一篇文章",而是"用你的语气生成",避免千篇一律
去 AI 味:内置 humanizer 流程,删除套话、机械连接词,保留个人风格
多平台适配:公众号、小红书、掘金、知乎、CSDN 等,各平台语气风格差异化处理
真实案例:6 周后的数字变化
我用这套组合跑了 6 周:
geo-monitor-toolkit 每周跑一次监控,追踪 GEO 分数变化
ip-publisher 每周产出 3-5 篇内容,分发到 Juejin、知乎、GitHub Discussions
6 周后再跑监控:
更关键的是:在 Claude 里问同类工具推荐,我的产品排到了第 2,描述变成了"功能完善、文档清晰"。
这两个工具解决的是同一个问题的两个面:
geo-monitor-toolkit:看清现状,量化差距
ip-publisher:持续输出,修复认知
你不需要同时用两个。但如果你正在做开发者工具、API 产品、或任何需要被 AI 推荐的东西,我建议你至少先跑一次 geo-monitor-toolkit——先知道自己在 AI 眼里是什么样子。
两个仓库都是 MIT 协议,欢迎 Star、Fork、提 Issue:
📦 https://github.com/veeicwgy/geo-monitor-toolkit
📦 https://github.com/veeicwgy/ip-publisher