- 本地模型通过 Ollama 和 LM Studio 等工具运行(在各自的部分中介绍)。
- 云提供商如 Perplexity、Together AI、Anyscale 等。
- 任何其他提供商提供 OpenAI 兼容 API 端点。
通用配置
在 Cline 中使用 OpenAI 兼容提供商的关键是配置这些主要设置:- 基础 URL: 这是特定于提供商的 API 端点。它_不会_是
https://api.openai.com/v1(该 URL 用于官方 OpenAI API)。 - API 密钥: 这是您从所选提供商获得的密钥。
- 模型 ID: 这是您希望使用的模型的特定名称或标识符。
- API 提供商: 选择”OpenAI Compatible”。
- 基础 URL: 输入您所选提供商提供的基础 URL。这是关键步骤。
- API 密钥: 输入您从提供商获得的 API 密钥。
- 模型: 选择或输入模型 ID。
- 模型配置: 此部分允许您自定义模型的高级参数,例如:
- 最大输出 Token
- 上下文窗口大小
- 图像支持功能
- 计算机使用(例如,对于具有工具/函数调用的模型)
- 输入价格(每 token/百万 token)
- 输出价格(每 token/百万 token)
支持的模型(用于 OpenAI 原生端点)
虽然”OpenAI 兼容”提供商类型允许连接到各种端点,但如果您直接连接到官方 OpenAI API(或完全镜像它的端点),Cline 会根据其源代码中的openAiNativeModels 定义识别以下模型 ID:
o3-minio3-mini-higho3-mini-lowo1o1-previewo1-minigpt-4ogpt-4o-mini
Cline 中的 v0(Vercel SDK):
- 对于使用 v0 的开发人员,他们的 AI SDK 文档 提供了有价值的见解和示例,用于集成各种模型,其中许多是 OpenAI 兼容的。这对于理解如何构建调用和管理在 Vercel 上部署或与 Vercel 集成的服务中使用 Cline 的配置可能是一个有用的资源。
- v0 可以在 Cline 中与 OpenAI 兼容提供商一起使用。
-
快速开始
-
- 选择 OpenAI Compatible 提供商后,将基础 URL 设置为 https://api.v0.dev/v1。
-
- 粘贴您的 v0 API 密钥
-
- 设置模型 ID:v0-1.0-md
-
- 点击验证以确认连接。
故障排除
- “无效的 API 密钥”: 仔细检查您是否正确输入了 API 密钥,以及它是否适用于正确的提供商。
- “未找到模型”: 确保您为所选提供商使用有效的模型 ID,并且它在指定的基础 URL 上可用。
- 连接错误: 验证基础 URL 是否正确,您的提供商的 API 是否可从您的机器访问,以及是否没有防火墙或网络问题。
- 意外结果: 如果您得到意外的输出,请尝试不同的模型或仔细检查所有配置参数。

