Skip to main content
Vercel AI Gateway 为您提供了一个单一的 API 来访问众多提供商的模型。您可以通过模型 ID 进行切换,无需更换 SDK 或处理多个密钥。Cline 直接集成,因此您可以在下拉菜单中选择 Gateway 模型,像使用任何其他提供商一样使用它,并在流中查看 token 和缓存使用情况。 有用的链接:

您能获得什么

  • 一个端点访问 100 多个模型,使用单个密钥
  • 在仪表板上配置的自动重试和回退
  • 支出监控,包括按模型请求、token 计数、缓存使用、延迟百分位数和成本
  • OpenAI 兼容的界面,现有客户端可以正常工作

获取 API 密钥

  1. https://vercel.com 登录
  2. 仪表板 → AI Gateway → API Keys → 创建密钥
  3. 复制密钥
有关身份验证和 OIDC 选项的更多信息,请参阅 https://vercel.com/docs/ai-gateway/authentication

在 Cline 中配置

  1. 打开 Cline 设置
  2. 选择 Vercel AI Gateway 作为 API 提供商
  3. 粘贴您的 Gateway API 密钥
  4. 从列表中选择模型。Cline 会自动获取目录。您也可以粘贴确切的 ID
注意事项:
  • 模型 ID 通常遵循 provider/model 格式。从目录中复制确切的 ID
    示例:
    • openai/gpt-5
    • anthropic/claude-sonnet-4
    • google/gemini-2.5-pro
    • groq/llama-3.1-70b
    • deepseek/deepseek-v3

可操作的可观察性

Vercel AI Gateway 可观察性,包含按模型请求、token、缓存、延迟和成本。
需要关注的指标:
  • 按模型请求 - 确认路由和采用情况
  • Token - 输入与输出,包括推理(如果公开)
  • 缓存 - 缓存输入和缓存创建 token
  • 延迟 - p75 持续时间和 p75 首 token 时间
  • 成本 - 按项目和按模型
用途:
  • 比较模型更改前后每个请求的输出 token
  • 通过跟踪缓存读取和写入创建来验证缓存策略
  • 在实验期间捕获 TTFT 回归
  • 将预算与实际使用情况对齐

支持的模型

Gateway 支持大量且不断变化的模型集。Cline 从 Gateway API 拉取列表并在本地缓存。有关当前目录,请参阅 https://vercel.com/ai-gateway/models

提示

每个环境(开发、测试、生产)使用单独的 Gateway 密钥。这保持仪表板整洁并使预算隔离。
定价是按提供商列表价格直通的。自带密钥没有加价。您仍然需要支付提供商和处理费用。
Vercel 不添加速率限制。上游提供商可能会。新账户每 30 天收到 5 美元积分,直到首次付款。

故障排除

  • 401 - 将 Gateway 密钥发送到 Gateway 端点,而不是上游 URL
  • 404 模型 - 从 Vercel 目录复制确切的 ID
  • 首 token 慢 - 在仪表板中检查 p75 TTFT,并尝试为流式传输优化的模型
  • 成本激增 - 在仪表板中按模型分解,并限制或路由流量

灵感

  • 多模型评估 - 仅在 Cline 中交换模型 ID 并比较延迟和输出 token
  • 渐进式推出 - 在仪表板中将小百分比路由到新模型,并根据指标增加
  • 预算执行 - 设置每个项目的限制,无需代码更改

交叉链接

  • OpenAI 兼容设置:/provider-config/openai-compatible
  • 模型选择指南:/getting-started/model-selection-guide
  • 理解上下文管理:/getting-started/understanding-context-management