news 2026/4/18 11:55:12

docker 部署 Prompt Optimizer (提示词优化器)

作者头像

张小明

前端开发工程师

1.2k 24
文章封面图
docker 部署 Prompt Optimizer (提示词优化器)

Prompt Optimizer (提示词优化器) 🚀

在线体验 | 快速开始 | 常见问题 | 开发文档 | Vercel部署指南 | Chrome插件

📖 项目简介

Prompt Optimizer是一个强大的AI提示词优化工具,帮助你编写更好的AI提示词,提升AI输出质量。支持Web应用和Chrome插件两种使用方式。

✨ 核心特性

  • 🎯智能优化:一键优化提示词,支持多轮迭代改进,提升AI回复准确度
  • 🔄对比测试:支持原始提示词和优化后提示词的实时对比,直观展示优化效果
  • 🤖多模型集成:支持OpenAI、Gemini、DeepSeek、智谱AI、SiliconFlow等主流AI模型
  • ⚙️高级参数配置:支持为每个模型单独配置temperature、max_tokens等LLM参数
  • 🔒安全架构:纯客户端处理,数据直接与AI服务商交互,不经过中间服务器
  • 💾隐私保护:本地加密存储历史记录和API密钥,支持数据导入导出
  • 📱多端支持:同时提供Web应用和Chrome插件两种使用方式
  • 🎨用户体验:简洁直观的界面设计,响应式布局和流畅交互动效
  • 🌐跨域支持:Vercel部署时支持使用Edge Runtime代理解决跨域问题
  • 🔐访问控制:支持密码保护功能,保障部署安全

快速开始

1. 使用在线版本(推荐)

直接访问:https://prompt.always200.com

项目是纯前端项目,所有数据只存储在浏览器本地,不会上传至任何服务器,因此直接使用在线版本也是安全可靠的

2. Vercel部署

方式1:一键部署到自己的Vercel

方式2: Fork项目后在Vercel中导入(推荐)

  • 先Fork项目到自己的GitHub
  • 然后在Vercel中导入该项目
  • 可跟踪源项目更新,便于同步最新功能和修复
  • 配置环境变量:
    • ACCESS_PASSWORD:设置访问密码,启用访问限制
    • VITE_OPENAI_API_KEY等:配置各AI服务商的API密钥

更多详细的部署步骤和注意事项,请查看:

  • Vercel部署指南

3. 安装Chrome插件

  1. 从Chrome商店安装(由于审批较慢,可能不是最新的):Chrome商店地址
  2. 点击图标即可打开提示词优化器

4. Docker部署

# 运行容器(默认配置)dockerrun -d -p80:80 --restart unless-stopped --name prompt-optimizer linshen/prompt-optimizer# 运行容器(配置API密钥和访问密码)dockerrun -d -p80:80\-eVITE_OPENAI_API_KEY=your_key\-eACCESS_USERNAME=your_username\# 可选,默认为"admin"-eACCESS_PASSWORD=your_password\# 设置访问密码--restart unless-stopped\--name prompt-optimizer\linshen/prompt-optimizer

5. Docker Compose部署

# 1. 克隆仓库gitclone https://github.com/linshenkx/prompt-optimizer.gitcdprompt-optimizer# 2. 可选:创建.env文件配置API密钥和访问认证cat>.env<<EOF # API密钥配置 VITE_OPENAI_API_KEY=your_openai_api_key VITE_GEMINI_API_KEY=your_gemini_api_key VITE_DEEPSEEK_API_KEY=your_deepseek_api_key VITE_ZHIPU_API_KEY=your_zhipu_api_key VITE_SILICONFLOW_API_KEY=your_siliconflow_api_key # Basic认证配置(密码保护) ACCESS_USERNAME=your_username # 可选,默认为"admin" ACCESS_PASSWORD=your_password # 设置访问密码 EOF# 3. 启动服务dockercompose up -d# 4. 查看日志dockercompose logs -f

你还可以直接编辑docker-compose.yml文件,自定义配置:

services:prompt-optimizer:image:linshen/prompt-optimizer:latestcontainer_name:prompt-optimizerrestart:unless-stoppedports:-"8081:80"# 修改端口映射environment:-VITE_OPENAI_API_KEY=your_key_here# 直接在配置中设置密钥

⚙️ API密钥配置

方式一:通过界面配置(推荐)

  1. 点击界面右上角的"⚙️设置"按钮
  2. 选择"模型管理"选项卡
  3. 点击需要配置的模型(如OpenAI、Gemini、DeepSeek等)
  4. 在弹出的配置框中输入对应的API密钥
  5. 点击"保存"即可

支持的模型:

  • OpenAI (gpt-3.5-turbo, gpt-4, gpt-4o)
  • Gemini (gemini-1.5-pro, gemini-2.0-flash)
  • DeepSeek (deepseek-chat, deepseek-coder)
  • Zhipu智谱 (glm-4-flash, glm-4, glm-3-turbo)
  • SiliconFlow (Pro/deepseek-ai/DeepSeek-V3)
  • 自定义API(OpenAI兼容接口)

除了API密钥,您还可以在模型配置界面为每个模型单独设置高级LLM参数。这些参数通过一个名为llmParams的字段进行配置,它允许您以键值对的形式指定LLM SDK支持的任何参数,从而更精细地控制模型行为。

高级LLM参数配置示例:

  • OpenAI/兼容API:{"temperature": 0.7, "max_tokens": 4096, "timeout": 60000}
  • Gemini:{"temperature": 0.8, "maxOutputTokens": 2048, "topP": 0.95}
  • DeepSeek:{"temperature": 0.5, "top_p": 0.9, "frequency_penalty": 0.1}

有关llmParams的更详细说明和配置指南,请参阅 LLM参数配置指南。

方式二:通过环境变量配置

Docker部署时通过-e参数配置环境变量:

-e VITE_OPENAI_API_KEY=your_key -e VITE_GEMINI_API_KEY=your_key -e VITE_DEEPSEEK_API_KEY=your_key -e VITE_ZHIPU_API_KEY=your_key -e VITE_SILICONFLOW_API_KEY=your_key -e VITE_CUSTOM_API_KEY=your_custom_api_key -e VITE_CUSTOM_API_BASE_URL=your_custom_api_base_url -e VITE_CUSTOM_API_MODEL=your_custom_model_name

本地开发

详细文档可查看 开发文档

# 1. 克隆项目 git clone https://github.com/linshenkx/prompt-optimizer.git cd prompt-optimizer # 2. 安装依赖 pnpm install # 3. 启动开发服务 pnpm dev # 主开发命令:构建core/ui并运行web应用 pnpm dev:web # 仅运行web应用 pnpm dev:fresh # 完整重置并重新启动开发环境

🗺️ 开发路线

  • 基础功能开发
  • Web应用发布
  • Chrome插件发布
  • 自定义模型支持
  • 多模型支持优化
  • 国际化支持

详细的项目状态可查看 项目状态文档

📖 相关文档

  • 文档索引 - 所有文档的索引
  • 技术开发指南 - 技术栈和开发规范
  • LLM参数配置指南 - 高级LLM参数配置详细说明
  • 项目结构 - 详细的项目结构说明
  • 项目状态 - 当前进度和计划
  • 产品需求 - 产品需求文档
  • Vercel部署指南 - Vercel部署详细说明

source:

prompt-optimizer

版权声明: 本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若内容造成侵权/违法违规/事实不符,请联系邮箱:809451989@qq.com进行投诉反馈,一经查实,立即删除!
网站建设 2026/4/18 10:52:52

LLM(大语言模型)到底是怎么工作的?(初学者必看)

前言 如果你经常用聊天机器人问问题、让AI写文案&#xff0c;或是用代码助手辅助编程&#xff0c;其实都是在和LLM&#xff08;大语言模型&#xff09;打交道。这些模型能像“懂人话”一样回应我们的需求&#xff0c;甚至写出逻辑通顺的文章、解决专业问题&#xff0c;但它们背…

作者头像 李华
网站建设 2026/4/18 11:17:06

融资35亿后,Kimi神秘模型现身竞技场

融资35亿后&#xff0c;Kimi的新模型紧跟着就要来了&#xff1f;&#xff01; 大模型竞技场上&#xff0c;一个名叫Kiwi-do的神秘模型悄然出现。 发现这个新模型的推特网友询问了模型的身份&#xff0c;结果模型自报家门&#xff0c;表示自己来自月之暗面Kimi&#xff0c;训练…

作者头像 李华
网站建设 2026/4/17 16:37:14

B站(哔哩哔哩)视频免费下载方式

B站&#xff08;哔哩哔哩&#xff09;视频免费下载方式大全&#xff08;2026 年最新&#xff09; B站视频下载需求很常见&#xff0c;但官方只支持会员缓存&#xff08;且加密&#xff0c;无法直接播放&#xff09;。以下是目前可靠的免费下载方法&#xff0c;仅限个人学习/收…

作者头像 李华
网站建设 2026/4/17 23:53:16

HTTP 413错误解决方法

HTTP 413 错误&#xff08;Payload Too Large / Request Entity Too Large&#xff09;解决方法大全 HTTP 413 错误表示客户端请求的负载&#xff08;payload&#xff09;太大&#xff0c;服务器拒绝处理。通常发生在上传大文件、POST 大量数据&#xff08;如 JSON、表单&…

作者头像 李华
网站建设 2026/4/18 11:24:47

Visual Studio 2022中配置cuda环境

一、前置条件&#xff08;必须先完成&#xff09; 在配置VS2022前&#xff0c;你需要先安装好以下软件&#xff0c;否则配置会失败&#xff1a; NVIDIA显卡驱动&#xff1a;确保你的电脑有NVIDIA独立显卡&#xff0c;且安装了最新/兼容的显卡驱动&#xff08;可通过NVIDIA控制…

作者头像 李华