Skip to main content

📋 先决条件

  • Windows、macOS 或 Linux 计算机
  • 在 VS Code 中安装 Cline

🚀 设置步骤

1. 安装 Ollama

  • 访问 ollama.com
  • 为您的操作系统下载并安装
Ollama 下载页面

2. 选择并下载模型

  • ollama.com/search 浏览模型
  • 选择模型并复制命令:
    ollama run [model-name]
    
在 Ollama 中选择模型
  • 打开终端并运行命令:
    • 示例:
      ollama run llama2
      
在终端中运行 Ollama
✨ 您的模型现在可以在 Cline 中使用了!

3. 配置 Cline

  1. 打开 VS Code
  2. 点击 Cline 设置图标
  3. 选择”Ollama”作为 API 提供商
  4. 输入配置:
    • 基础 URL:http://localhost:11434/(默认值,可以保持不变)
    • 从可用选项中选择模型
使用 Ollama 配置 Cline

⚠️ 重要注意事项

  • 在与 Cline 一起使用之前启动 Ollama
  • 保持 Ollama 在后台运行
  • 首次模型下载可能需要几分钟

🔧 故障排除

如果 Cline 无法连接到 Ollama:
  1. 验证 Ollama 正在运行
  2. 检查基础 URL 是否正确
  3. 确保模型已下载
需要更多信息?阅读 Ollama 文档