Skip to main content
xAI 是 Grok 背后的公司,Grok 是一个以对话能力和大上下文窗口而闻名的大型语言模型。Grok 模型旨在提供有用、信息丰富且与上下文相关的响应。 网站: https://x.ai/

获取 API 密钥

  1. 注册/登录: 访问 xAI 控制台。创建账户或登录。
  2. 导航到 API 密钥: 在你的仪表板中转到 API 密钥部分。
  3. 创建密钥: 点击创建新的 API 密钥。给你的密钥一个描述性名称(例如,“Cline”)。
  4. 复制密钥: 重要: 立即 复制 API 密钥。你将无法再次看到它。安全存储它。

支持的模型

Cline 支持以下 xAI Grok 模型:

Grok-3 模型

  • grok-3-beta(默认)- xAI 的 Grok-3 beta 模型,具有 131K 上下文窗口
  • grok-3-fast-beta - xAI 的 Grok-3 快速 beta 模型,具有 131K 上下文窗口
  • grok-3-mini-beta - xAI 的 Grok-3 mini beta 模型,具有 131K 上下文窗口
  • grok-3-mini-fast-beta - xAI 的 Grok-3 mini 快速 beta 模型,具有 131K 上下文窗口

Grok-2 模型

  • grok-2-latest - xAI 的 Grok-2 模型 - 具有 131K 上下文窗口的最新版本
  • grok-2 - xAI 的 Grok-2 模型,具有 131K 上下文窗口
  • grok-2-1212 - xAI 的 Grok-2 模型(版本 1212),具有 131K 上下文窗口

Grok Vision 模型

  • grok-2-vision-latest - xAI 的 Grok-2 Vision 模型 - 具有图像支持和 32K 上下文窗口的最新版本
  • grok-2-vision - xAI 的 Grok-2 Vision 模型,具有图像支持和 32K 上下文窗口
  • grok-2-vision-1212 - xAI 的 Grok-2 Vision 模型(版本 1212),具有图像支持和 32K 上下文窗口
  • grok-vision-beta - xAI 的 Grok Vision Beta 模型,具有图像支持和 8K 上下文窗口

传统模型

  • grok-beta - xAI 的 Grok Beta 模型(传统),具有 131K 上下文窗口

在 Cline 中配置

  1. 打开 Cline 设置: 点击 Cline 面板中的设置图标(⚙️)。
  2. 选择提供商: 从”API 提供商”下拉菜单中选择”xAI”。
  3. 输入 API 密钥: 将你的 xAI API 密钥粘贴到”xAI API 密钥”字段中。
  4. 选择模型: 从”模型”下拉菜单中选择你想要的 Grok 模型。

推理能力

Grok 3 Mini 模型具有专门的推理能力,允许它们”在响应前思考” - 对复杂的问题解决任务特别有用。

支持推理的模型

推理仅由以下模型支持:
  • grok-3-mini-beta
  • grok-3-mini-fast-beta
Grok 3 模型 grok-3-betagrok-3-fast-beta 不支持推理。

控制推理努力

当使用支持推理的模型时,你可以使用 reasoning_effort 参数控制模型思考的努力程度:
  • low:最少思考时间,使用较少令牌进行快速响应
  • high:最大思考时间,利用更多令牌解决复杂问题
为应该快速完成的简单查询选择 low,为响应延迟不太重要的困难问题选择 high

关键功能

  • 逐步问题解决:模型在提供答案前有条理地思考问题
  • 数学和定量强项:在数值挑战和逻辑谜题方面表现出色
  • 推理追踪访问:模型的思考过程可通过响应完成对象中的 reasoning_content 字段获得

提示和注意事项

  • 上下文窗口: 大多数 Grok 模型具有大上下文窗口(高达 131K 令牌),允许你在提示中包含大量代码和上下文。
  • 视觉能力: 当你需要处理或分析图像时,选择支持视觉的模型(grok-2-vision-latestgrok-2-vision 等)。
  • 定价: 定价因模型而异,输入成本从每百万令牌 0.30.3 到 5.0 不等,输出成本从每百万令牌 0.50.5 到 25.0 不等。请参考 xAI 文档获取最新定价信息。
  • 性能权衡: “快速”变体通常提供更快的响应时间但可能成本更高,而”mini”变体更经济但可能能力有所降低。