获取 API 密钥
- 注册/登录: 访问火山引擎控制台。创建账户或登录。
- 导航到模型服务: 在控制台中访问 AI 模型服务部分。
- 创建 API 密钥: 为豆包服务生成新的 API 密钥。
- 复制密钥: 立即复制 API 密钥并安全存储。你可能无法再次查看它。
支持的模型
Cline 支持以下豆包模型:doubao-seed-1-6-250615(默认)- 性能均衡的通用模型doubao-seed-1-6-thinking-250715- 具有逐步思考的增强推理模型doubao-seed-1-6-flash-250715- 快速推理的速度优化模型
- 128,000 令牌上下文窗口用于广泛的文档处理
- 32,768 最大输出令牌用于全面响应
- 图像输入支持用于多模态应用
- 提示缓存,缓存读取享受 80% 折扣
在 Cline 中配置
- 打开 Cline 设置: 点击 Cline 面板中的设置图标(⚙️)。
- 选择提供商: 从”API 提供商”下拉菜单中选择”豆包”。
- 输入 API 密钥: 将你的豆包 API 密钥粘贴到”豆包 API 密钥”字段中。
- 选择模型: 从”模型”下拉菜单中选择你想要的模型。
https://ark.cn-beijing.volces.com/api/v3,服务器位于中国北京。
字节跳动的 AI 创新
豆包代表了字节跳动进入 AI 模型领域的战略举措,具有几个关键创新:稀疏专家混合架构
豆包 1.5 Pro 采用创新的稀疏 MoE 框架,其中 200 亿激活参数提供相当于 1400 亿参数密集模型的性能。这种架构在保持高性能标准的同时显著降低了运营成本。扩展上下文处理
凭借从 32,000 到 256,000 令牌的上下文窗口,豆包在处理长篇内容方面表现出色,包括法律文档、学术研究、市场报告和创意内容生成。多模态卓越
- 先进视觉处理: 增强的视觉推理、文档识别和细粒度信息理解
- 集成语音: 无缝的语音和文本令牌集成,具有卓越的情感连续性
- 文档分析: 全面的文档摘要和内容处理能力
中文语言优化
豆包专门针对中文语言流利度和文化相关性进行训练,为中文用户和需要深度文化背景理解的应用提供显著优势。成本效率
豆包的定价约为可比 OpenAI 产品成本的一半,使先进 AI 更容易获得,同时建立了有竞争力的市场定位。特殊功能
推理模型
doubao-seed-1-6-thinking-250715 模型提供增强的推理能力和逐步思考过程,使其非常适合复杂的问题解决任务。
多模态能力
与传统的级联方法不同,豆包无缝集成语音和文本处理,实现更自然的语音交互和全面的文档分析。提示缓存
所有模型都支持提示缓存,具有显著的成本节省(缓存读取享受 80% 折扣),使重复查询更加经济。字节跳动生态系统集成
豆包与字节跳动的产品垂直集成,包括 TikTok(抖音)、今日头条和飞书,在整个生态系统中实现无缝工作流集成。性能和基准测试
豆包-1.5 Pro-AS1 预览版在特定基准测试上表现出优于 OpenAI 的 O1-preview 的性能,包括在 AIME 测试上超越 O1 模型。该模型通过强化学习持续改进,预期性能将随时间提升。提示和注意事项
- 区域优势: 针对中文语言和文化背景优化,使其非常适合中文用户和市场。
- 成本效益: 成本约比可比的西方 AI 模型低 50%,同时保持竞争性能。
- 上下文窗口: 大上下文窗口(高达 256K 令牌)能够处理广泛的文档和代码库。
- 多模态应用: 强大的视觉和语音处理能力使其适用于多样化的多媒体应用。
- 服务器位置: 服务器位于中国北京 - 对全球用户请考虑延迟影响。
- 生态系统优势: 与字节跳动服务的集成为 TikTok、今日头条和飞书用户提供额外的工作流优势。
- 定价: 查看火山引擎控制台获取当前定价信息和区域可用性。

