Context vs Prompt · Versus Playground

可编辑知识库 / 上下文开关 / 一键调用 OpenAI 兼容 Chat Completions(BASE_URL、API_KEY、Model 可配置)
RAG 上下文压缩 对话管理 SSE 流式
Context vs Prompt:谁提供资料,谁出题裁判

如何理解上下文? 模型在推理时只能看到输入里提供的材料,系统提示、历史对话、知识片段都算在内。本地默认的知识库示例就是“开卷资料”。

Context 工程和 Prompt 工程的 Versus 与互赖关系? Prompt 负责告诉模型“扮演谁、按照什么格式输出”;Context 负责把事实、约束整理好让模型引用。缺少 Context,Prompt 只能空谈流程;缺少 Prompt,即便给了资料模型也可能跑偏,因此两者必须绑在一起看。

Context 工程的主要工作有哪些?

  • 信息源盘点与质量评估:找出可信、最新的政策或素材。
  • 检索与聚合:根据提问自动拉取并拼接合适片段。
  • 压缩与过滤:去掉重复或无关内容,留下关键事实。
  • 对话管理:多轮对话中保持“短期记忆”,适时淘汰过期信息。
  • 监控与迭代:区分问题是出在 Prompt 还是 Context,并持续改进。

简单示例: 左侧的按钮会填入年假、物流赔付、代码审查、多模态等场景,展示同一 Prompt 在有/无上下文时的差异。可以在 System Prompt 中追加语气或步骤要求,观察两者如何协同。

调用的是 OpenAI 兼容的 /v1/chat/completions;BASE_URL 可填 https://api.openai.com/v1 或自建代理。直接在浏览器里调用会暴露 API Key 且可能触发 CORS,生产环境请改用后端代理。

⚠️ 直接在浏览器里调用模型会暴露 API Key 并受制于 CORS。仅用于本地测试或私有环境。生产环境请走后端代理。
连接设置(OpenAI 兼容 /v1/chat/completions)

先确认基础连接信息,再按需调整生成参数。支持标准 OpenAI 兼容接口与自建推理服务。

基础连接
BASE_URL(如:https://api.openai.com/v1 或 http://localhost:8000/v1)
API_KEY(Bearer)
生成参数
Model
Temperature
Top_p
偏好设置
使用流式(SSE)
保存在本地(localStorage)
上下文与问题
年假政策
报销政策
上班时间
物流赔付政策
代码审查要点
多模态安全指引
System Prompt(可选)
用户问题(Prompt)
启用 Context(自动检索 + 拼接)
显示请求体(调试用)
结果对比
有上下文(发送:背景信息 + 问题 + 可选 system)
无上下文(仅发送:问题 + 可选 system)
仅上下文(发送:背景信息,不附带问题)
观察点: 有上下文+清晰 Prompt 时,答案最稳定;只有上下文没有问题时模型无从下手;只有 Prompt 没有上下文时,模型往往凭“印象”发散作答,难以落在真实业务事实。 Context 工程负责把资料准备好,Prompt 工程负责指挥模型如何使用资料——缺一不可。