2025 年 8 月 5 日,GitHub 官方在 X(原 Twitter)发布公告:GitHub Models 服务正式向每一位 GitHub 用户免费开放,并同步上线兼容 OpenAI 格式的 API 端点。这意味着——
只要拥有一个 GitHub 账号,就能在本地、私有服务器、甚至 GitHub Actions 流水线里直接调用 GPT-4o、DeepSeek-R1、Llama-3 等当前最火的大模型。
能力 | 免费额度 | 付费可扩展 |
---|---|---|
对话补全、代码补全、函数调用 | 默认免费,并发与上下文窗口有限 | 更高并发、更大上下文 |
一键接入 GitHub Actions | 零配置,无需设置 Secrets | 企业级 SLA |
本地/离线部署 | 支持 Docker、裸机二进制 | 提供企业镜像与缓存加速 |
兼容 OpenAI SDK | 改一行 base_url 即可迁移 | 100% 兼容 |
GitHub 页面 → Settings → Developer settings → Personal access tokens → 生成 classic
Token(勾选 repo
与 workflow
权限即可)。
import openai
client = openai.OpenAI(
base_url="https://models.github.ai/v1", # GitHub Models 统一入口
api_key="<YOUR_GITHUB_TOKEN>" # 或直接用 GITHUB_TOKEN
)
resp = client.chat.completions.create(
model="gpt-4o",
messages=[{"role": "user", "content": "用 Python 写一段快速排序"}]
)
print(resp.choices[0].message.content)
运行即可看到 GPT-4o 生成的快速排序代码,全程不用翻墙、不用密钥。
.github/workflows/ai.yml
name: AI-CI
on: [push]
jobs:
test:
runs-on: ubuntu-latest
steps:
- uses: actions/checkout@v4
- uses: actions/setup-python@v5
with: { python-version: '3.11' }
- run: pip install openai
- run: python ci_ai_task.py # 直接调用 GitHub Models
env:
OPENAI_API_KEY: ${{ secrets.GITHUB_TOKEN }}
无需再为流水线单独配置 API Key,真正做到“零机密”。
base_url
换成 GitHub Models,即可白嫖 GPT-4o。
docker run -it --rm -p 8000:8000 \
ghcr.io/github/models/deepseek-r1:latest
本地浏览器打开 http://localhost:8000
即可对话。从今日起,GitHub 不只是代码托管平台,更是“模型托管 + 推理即服务”平台。无论你是独立开发者,还是开源社区 Maintainer,都可以把 GPT-4o、DeepSeek-R1 这样的顶级模型当成「基础设施」来用——零门槛、零密钥、零费用起步,让 AI 真正成为每一行代码的副驾驶。
快去你的下一个 Commit message 里写一句 feat: add AI power by GitHub Models
吧!