Skip to content

模型列表

Chaterm 支持多种模型提供商,提供灵活的 AI 编程体验。从内置模型到自定义集成,满足不同场景的需求。

内置模型

Chaterm 内置了多个优质的代码模型,开箱即用,无需额外配置:

思维链模型

这些模型具备深度推理能力,能够逐步分析问题并给出详细的解决方案:

模型特点适用场景推理能力
DeepSeek-R1 (thinking)具备深度推理能力的先进模型复杂算法设计、架构分析
GLM-4.6 (thinking)强大的逻辑推理能力代码审查、问题诊断中高
Qwen-Plus (thinking)阿里云通义千问思维链模型多语言开发、跨平台项目中高

标准模型

快速响应的标准模型,适合日常编程任务:

模型特点适用场景响应速度
DeepSeek-V3.2支持复杂代码分析大型项目重构、性能优化
Qwen-Plus高性能代码生成模型企业级应用开发
GLM-4.6优秀的代码生成能力快速原型开发、功能实现
Qwen-Turbo快速响应的轻量级模型实时编程辅助、快速迭代很快

添加自定义模型

您可以在设置中添加更多模型提供商,扩展 Chaterm 的功能。支持多种集成方式,满足不同需求:

模型集成

1. LiteLLM 集成

通过 LiteLLM 可以连接多种模型提供商,支持统一的 API 接口:

配置项说明是否必需
URL 地址LiteLLM 服务端点必需
API Key访问密钥必需
模型名称要使用的具体模型必需

优势: 统一接口,支持多种模型提供商

2. OpenAI 集成

直接连接 OpenAI 服务,使用官方 API:

配置项说明是否必需
OpenAI URL 地址OpenAI API 端点必需
OpenAI API KeyOpenAI 访问密钥必需
模型名称GPT-5、GPT-4 等必需

优势: 官方支持,稳定可靠

3. Amazon Bedrock

使用 AWS Bedrock 服务,企业级解决方案:

配置项说明是否必需
AWS Access KeyAWS 访问密钥必需
AWS Secret KeyAWS 秘密密钥必需
AWS Session Token会话令牌可选
AWS 区域服务区域必需
自定义 VPC 端点私有网络端点可选
跨区域推理多区域部署可选
模型名称Bedrock 模型必需

优势: 企业级安全,高可用性

4. DeepSeek 集成

连接 DeepSeek 官方 API,使用先进模型:

配置项说明是否必需
DeepSeek API KeyDeepSeek 访问密钥必需
模型名称DeepSeek 模型必需

优势: 先进模型,推理能力强

本地模型部署

5. Ollama 本地部署

使用本地部署的 Ollama 模型,保护数据隐私:

配置项说明是否必需
Ollama URL 地址本地 Ollama 服务地址必需
模型名称本地模型名称必需

优势: 数据隐私,离线可用

使用说明

快速开始

  1. 进入设置页面 - 点击右上角设置图标
  2. 选择"模型"选项卡 - 在左侧菜单中找到模型设置
  3. 点击"添加模型"按钮 - 开始添加新的模型配置
  4. 选择相应的提供商 - 根据需求选择合适的模型提供商
  5. 填写必要的配置信息 - 按照表格要求填写配置项
  6. 保存并测试连接 - 验证配置是否正确

配置技巧

  • API Key 安全:使用环境变量存储敏感信息
  • 连接测试:配置完成后务必进行连接测试
  • 模型切换:可以配置多个模型,根据需要切换使用
  • 性能监控:关注模型响应时间和使用成本

模型选择建议

按使用场景选择

使用场景推荐模型理由
日常编程Qwen-Turbo响应快速,成本低
复杂任务DeepSeek-R1 (thinking)推理能力强,分析深入
本地部署Ollama数据隐私,离线可用
企业级应用Amazon Bedrock稳定可靠,安全合规
多语言开发Qwen-Plus (thinking)支持多语言,理解能力强
快速原型GLM-4.6生成速度快,适合迭代

按性能需求选择

追求速度

  • Qwen-Turbo - 最快响应
  • GLM-4.6 - 平衡性能与质量

追求质量

  • DeepSeek-R1 (thinking) - 最强推理
  • DeepSeek-V3.2 - 复杂分析

追求成本效益

  • Qwen-Turbo - 成本最低
  • Ollama 本地 - 无使用费用

追求隐私

  • Ollama 本地 - 完全本地化
  • Amazon Bedrock - 企业级安全