Skip to content

模型列表

Chaterm 开箱即支持多种 AI 模型提供商,您还可以添加自定义提供商以获得最大灵活性。

内置模型

Chaterm 内置了多个高质量的预配置模型,开箱即用,无需额外设置。只需在任何 AI 对话中从模型下拉菜单选择即可。

快速开始:添加您的第一个自定义模型

按照以下步骤添加自定义模型提供商。下面以 OpenAI 为例,其他提供商的流程类似。

  1. 点击右上角齿轮图标打开设置
  2. 在左侧菜单中导航到**"模型"**选项卡。
  3. 点击**"添加模型"**。
  4. 从提供商列表中选择 OpenAI(或您偏好的提供商)。
  5. 输入 API 端点 URL(例如 https://api.openai.com/v1)。
  6. 粘贴您的 API 密钥
  7. 输入或选择模型名称(例如 gpt-5)。
  8. 点击**"测试连接"** -- 显示成功消息表示一切正常。
  9. 点击**"保存"** -- 该模型现在会出现在所有 AI 对话的模型下拉菜单中。

推荐首次设置

如果您是 Chaterm AI 功能的新用户,建议从 DeepSeekOpenAI 开始。两者都只需要一个 API 密钥,设置简单直观,并且提供强大的通用模型,适合命令生成和 Agent 任务。


提供商参考

1. LiteLLM

通过统一的 LiteLLM 网关连接多种模型提供商。

配置项说明是否必需
URL 地址LiteLLM 服务端点
API KeyLiteLLM 网关的访问密钥
模型名称模型标识符(例如 gpt-5claude-sonnet-4-6

最适合: 已经运行 LiteLLM 代理、通过统一端点访问多个提供商的团队。


2. OpenAI

直接连接 OpenAI 或任何 OpenAI 兼容的 API。

配置项说明是否必需
OpenAI URL 地址API 端点(默认:https://api.openai.com/v1
OpenAI API Key您的 OpenAI API 密钥
模型名称使用的模型(例如 gpt-5claude-sonnet-4-6claude-opus-4-5

最适合: 直接使用 OpenAI 模型,或连接到提供 OpenAI 兼容 API 的第三方服务。


3. Amazon Bedrock

使用 AWS Bedrock 获得企业级 AI 服务,具备 AWS 安全性和合规性。

配置项说明是否必需
AWS Access KeyIAM 访问密钥 ID
AWS Secret KeyIAM 秘密访问密钥
AWS Session Token临时会话令牌(用于角色扮演)
AWS 区域服务区域(例如 us-east-1
自定义 VPC 端点基于 VPC 访问的私有端点
跨区域推理启用跨多个区域的推理
模型名称Bedrock 模型标识符

最适合: 已投入 AWS 生态、需要企业级安全、合规控制和私有网络访问的组织。


4. DeepSeek

连接 DeepSeek API,获得强大的推理和编码能力。

配置项说明是否必需
DeepSeek API Key您的 DeepSeek API 密钥
模型名称使用的模型(例如 deepseek-chatdeepseek-reasoner

最适合: 以高性价比获取具有强大推理和代码生成能力的模型。


5. Ollama(本地部署)

在本地运行模型,实现最大隐私保护和离线访问。

配置项说明是否必需
Ollama URL 地址本地服务地址(默认:http://localhost:11434
模型名称本地已安装的模型(例如 llama3codellamamistral

最适合: 气隙环境、对数据敏感的工作负载,或无需 API 费用的实验性使用。

TIP

测试连接前请确保 Ollama 服务正在运行。您可以使用 ollama serve 启动服务,使用 ollama pull <模型名称> 拉取模型。


配置技巧

  • 每次修改后测试 -- 修改任何提供商配置后,请务必点击"测试连接"。
  • 多模型支持 -- 您可以同时配置多个提供商和模型,然后按对话切换使用。
  • API 密钥安全 -- Chaterm 将凭证存储在本地。请定期向您的提供商轮换密钥。
  • 性能考量 -- 关注响应时间。本地模型(Ollama)没有网络延迟,但取决于您的硬件性能。云端模型在强大的服务器上更快,但会增加网络往返时间。

相关文档