使用 Models 扩展,可以从 Copilot Chat 和 CLI 调用特定的 AI 模型。 这些扩展直接集成到开发工作流中,使你能够在不切换上下文的情况下提示模型。
在 Copilot Chat 中使用 AI 模型
如果有 Copilot 订阅,可以通过两种不同的方式在 Copilot Chat 中使用 AI 模型:
- 使用 Models Copilot Extension。 使用此扩展,可以根据特定条件请求模型建议,并与特定模型聊天。 请参阅使用 Models Copilot Extension。
- 在 Copilot Chat 中使用多模型支持 使用多模型 Copilot Chat,可以选择特定模型进行对话,然后像往常一样提示 Copilot Chat。 请参阅“正在更改 Copilot Chat 的 AI 模型”。
使用 Models Copilot Extension
注意
Models Copilot Extension 为 公共预览版,可能随时更改。
- 如果你有 Copilot Pro 订阅,则可以在个人帐户上安装该扩展。
- 如果能够通过 Copilot Business 或 Copilot Enterprise 订阅访问 Copilot:
- 组织所有者或企业所有者需要为组织或企业启用 Copilot Extensions 策略。
- 组织所有者需要为组织安装该扩展。
打开支持 Copilot Extensions 的 Copilot Chat 的任何实现。 有关受支持的 Copilot Chat 实现的列表,请参阅“使用扩展将外部工具与 Copilot Chat 集成”。
在聊天窗口中,键入
@models YOUR-PROMPT
,然后发送提示。 Models Copilot Extension 具有多个用例,包括:- 根据提供的上下文和条件推荐特定模型。 例如,可以请求支持函数调用的低成本 OpenAI 模型。
- 使用特定模型执行提示。 这在你想要使用当前在多模型 Copilot Chat 中不可用的模型时特别有用。
- 列出当前通过 Models 提供的模型
Using AI models with Actions
可以使用 Actions 令牌 (_TOKEN
) 直接在工作流中调用 AI 模型。
设置权限
若要在工作流中使用 AI 模型,需要确保在工作流配置中启用 models
权限。 此权限允许工作流访问 Models 推理 API。 可以自行设置此权限,也可以使用常规 read-all
或 write-all
权限。 请参阅“ 应用程序所需的权限”。
编写工作流文件
可以直接从工作流调用推理 API。 例如:
name: Use Models
on:
workflow_dis:
permissions:
models: read
jobs:
call-model:
runs-on: ubuntu-latest
steps:
- name: Call AI model
env:
_TOKEN: ${{ secrets._TOKEN }}
run: |
curl "https://models..ai/inference/chat/completions" \
-H "Content-Type: application/json" \
-H "Authorization: Bearer $_TOKEN" \
-d '{
"messages": [
{
"role": "user",
"content": "Explain the concept of recursion."
}
],
"model": "openai/gpt-4o"
}'
通过命令行使用 AI 模型
注意
CLI 的 Models 扩展为 公共预览版,可能随时更改。
可以使用 CLI 的 Models 扩展通过命令行提示 AI 模型,甚至可以将命令的输出作为上下文传递。
先决条件
要使用 Models CLI 扩展,需要首先安装 CLI。 有关 CLI 的安装说明,请参阅 CLI 存储库。
安装扩展
如果尚未向 CLI 进行身份验证,请在终端上运行如下命令。
Shell gh auth login
gh auth login
要安装 Models 扩展,请运行以下命令。
Shell gh extension install https://.com//gh-models
gh extension install https://.com//gh-models
使用扩展
要查看所有可用命令的列表,请运行 gh models
。
可以通过以下几种关键方式使用该扩展:
- 通过聊天体验向模型提出多个问题****,运行
gh models run
。 从列出的模型中选择模型,然后发送提示。 - 要向模型问一个问题,请在终端中运行
gh models run MODEL-NAME "QUESTION"
****。 例如,若要询问 GPT-4.1 模型为什么天空为蓝色,可以运行gh models run gpt-4.1 "why is the sky blue?"
。 - 若要在调用模型时提供命令的输出,可以使用管道字符 (
|
) 联接单独的命令和对模型的调用****。 例如,若要使用 GPT-4.1 模型汇总当前目录中的 README 文件,可以运行cat README.md | gh models run gpt-4.1 "summarize this text"
。