# 2026 免费 AI 额度全攻略: 15 个平台,手把手教你领
Claude 20 刀/月,GPT 也 20 刀/月,Cursor Pro 又要 20 刀。一个月光 AI 订阅就小一千。
但其实,有大量平台提供完全免费的 AI 模型额度,只是你不知道在哪领。
我花了两周全部注册了一遍,整理出这份攻略。分国内和国外,每个平台都写清楚:有什么模型、给多少量、质量怎么样、要不要、怎么领。
收藏这一篇就够了。
一、国外平台(需要)
1. Groq — 速度之王
| 维度 | 详情 |
|---|---|
| 模型 | Llama 3.3 70B 、Llama 4 Scout 、Qwen3 32B 、Gemma 、Mixtral |
| 免费额度 | 每天约 14,400 次请求(按分钟重置,不是一次性的) |
| 质量 | Llama 70B 级别,日常编程和对话足够,复杂推理稍弱 |
| 速度 | ⭐⭐⭐⭐⭐ 750 tokens/秒,体感秒回 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 打开 console.groq.com
- 用 Google 或 GitHub 账号注册
- 左侧菜单 → API Keys → Create API Key
- 复制 Key ,完事
适合谁: 需要快速响应的场景,比如 IDE 补全、实时对话。日常编程用它最爽。
2. Cerebras — 额度之王
| 维度 | 详情 |
|---|---|
| 模型 | Llama 4 Scout 、Llama 3.3 70B 、Qwen3 32B 、Qwen3 235B |
| 免费额度 | 每天 100 万 tokens |
| 质量 | ⭐⭐⭐⭐ 70B 级别,Qwen3 235B 质量更高 |
| 速度 | ⭐⭐⭐⭐⭐ 约 2000 tokens/秒,全网最快 |
| 需要信用卡 | ❌ 不需要 |
| 限制 | 单次上下文最长 8,192 tokens |
怎么领:
- 打开 cloud.cerebras.ai
- 注册账号(邮箱即可)
- Dashboard → API Keys → Generate
- 复制保存
适合谁: 大量代码生成、批量翻译、长文写作。一天 100 万 token ,正常人根本用不完。
3. SambaNova — 质量之王
| 维度 | 详情 |
|---|---|
| 模型 | Llama 3.1 405B (开源最强)、70B 、8B |
| 免费额度 | 每天 200K tokens ; 405B 模型限 10 RPM |
| 质量 | ⭐⭐⭐⭐⭐ 405B 是当前最强开源模型,接近 GPT-4 水平 |
| 速度 | ⭐⭐⭐⭐ 快 |
| 需要信用卡 | ❌ 不需要(不绑卡就是 Free Tier ) |
怎么领:
- 打开 cloud.sambanova.ai
- 注册
- 进入面板拿 API Key
- 选模型时选
Meta-Llama-3.1-405B-Instruct
适合谁: 需要最强推理能力的复杂任务。405B 免费给你用,这家是最大方的。
4. Google Gemini — 上下文之王
| 维度 | 详情 |
|---|---|
| 模型 | Gemini 2.5 Pro 、Flash 、Flash-Lite |
| 免费额度 | Pro: 100 次/天; Flash: 250 次/天; Flash-Lite: 1000 次/天 |
| 质量 | ⭐⭐⭐⭐⭐ Pro 接近最强闭源模型水平 |
| 速度 | ⭐⭐⭐ 偏慢 |
| 需要信用卡 | ❌ 不需要 |
| 杀手锏 | 100 万 token 上下文窗口 |
怎么领:
- 打开 ai.google.dev
- 用 Google 账号登录
- Get API Key → Create API Key
- 选一个 Google Cloud 项目(没有会自动创建)
适合谁: 分析超长文档、整本书、大型代码库。100 万上下文,其他平台都做不到。
5. OpenRouter — 模型超市
| 维度 | 详情 |
|---|---|
| 模型 | 约 29 个免费模型:DeepSeek V3/R1 、Llama 系列、Qwen 系列、Gemini Flash 等 |
| 免费额度 | 每天 50 次(充 $10 提升到 1000 次/天) |
| 质量 | 取决于选哪个模型,DeepSeek R1 最强 |
| 速度 | ⭐⭐⭐ 中等,取决于路由 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 打开 openrouter.ai
- 注册
- Keys 页面创建 API Key
- 模型名加
:free后缀即为免费模型(如deepseek/deepseek-r1:free)
适合谁: 想在一个平台试遍各种模型的人。不用分别注册,一个 Key 切所有。
6. Mistral — 代码之王
| 维度 | 详情 |
|---|---|
| 模型 | Mistral Large 、Small 3.1 、Codestral (代码专用)、Pixtral |
| 免费额度 | 每月 10 亿 tokens ( Experiment 层),但限速 2 RPM |
| 质量 | ⭐⭐⭐⭐ Codestral 是最强代码模型之一 |
| 速度 | ⭐⭐⭐ 受 2 RPM 限制,实际体感偏慢 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 打开 console.mistral.ai
- 注册,选 Experiment 计划(免费)
- API Keys 页面创建 Key
适合谁: 写代码为主。Codestral 专门为代码优化,补全和生成质量很高。每月 10 亿 token 的量,慢点也够用。
7. Cohere — 企业级 RAG
| 维度 | 详情 |
|---|---|
| 模型 | Command R+、Embed 、Rerank |
| 免费额度 | 每月 1,000 次 API 调用 |
| 需要信用卡 | ❌ 不需要 |
| 注册 | dashboard.cohere.com |
适合谁: 做 RAG (检索增强生成)、文档问答系统。Rerank 模型是这个领域最强的。
8. Fireworks AI
| 维度 | 详情 |
|---|---|
| 模型 | Qwen3 8B 、DeepSeek 等开源模型 |
| 免费额度 | 注册送 $1 credits + Developer Tier 免费月度配额 |
| 需要信用卡 | ❌ 不需要 |
| 注册 | fireworks.ai |
9. Kiro (亚马逊出品)
| 维度 | 详情 |
|---|---|
| 模型 | Claude Sonnet ( Anthropic 提供) |
| 免费额度 | 每月 50 credits + 新用户送 500 credits ( 30 天有效) |
| 质量 | ⭐⭐⭐⭐⭐ Claude Sonnet 质量,免费用到就是赚到 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 下载 Kiro IDE
- 注册 AWS Builder ID (免费)
- 打开就能用,500 credits 到账
适合谁: Claude 重度用户。别的平台免费给你 Llama ,这家免费给你 Claude Sonnet ,质量差距不是一个级别。
10. Windsurf
| 维度 | 详情 |
|---|---|
| 模型 | 内置多种 AI 模型 |
| 免费额度 | 每月 25 credits + 无限基础补全 + 每天 5 次 Cascade |
| 需要信用卡 | ❌ 不需要 |
| 注册 | 下载 Windsurf IDE |
二、国内平台
11. 硅基流动 SiliconFlow — 国内最大方
| 维度 | 详情 |
|---|---|
| 模型 | Qwen2.5-72B 、DeepSeek-V2.5 、InternLM2.5 等,涵盖语言/语音/图片/视频 |
| 免费额度 | 注册送 14 元(约 2000 万 token );邀请好友再送 14 元; Qwen2.5-7B API 永久免费 |
| 质量 | ⭐⭐⭐⭐ 72B 模型质量好,7B 日常够用 |
| 速度 | ⭐⭐⭐⭐ 国内直连快 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 打开 siliconflow.cn
- 手机号注册
- 控制台 → API Keys → 创建
- 接口兼容 OpenAI 格式( base_url:
https://api.siliconflow.cn/v1)
适合谁: 国内开发者首选。不用、不用信用卡、兼容 OpenAI 格式,还送 2000 万 token 。
12. 智谱 GLM — 永久免费模型
| 维度 | 详情 |
|---|---|
| 模型 | GLM-4-Flash (永久免费)、CogView-3-Flash (免费生图)、GLM-4V-Flash (免费图像理解) |
| 免费额度 | GLM-4-Flash 不限量永久免费;新注册送 18 元额度(约 100 万 token );实名再送 400 万 token |
| 质量 | ⭐⭐⭐⭐ 中文理解优秀,Flash 模型速度快 |
| 速度 | ⭐⭐⭐⭐ 快 |
| 需要 | ❌ 不需要 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 打开 open.bigmodel.cn
- 手机号注册
- 实名认证(多送 400 万 token )
- API Keys 页面创建 Key
适合谁: GLM-4-Flash 永久免费不限量,光这一个模型就值得注册。中文场景质量很好。
13. 百度文心 ERNIE — 三个模型全免费
| 维度 | 详情 |
|---|---|
| 模型 | ERNIE-Speed-8K/128K 、ERNIE-Lite-8K 、ERNIE-Tiny (共 7 个免费服务) |
| 免费额度 | 以上模型全部免费,不限量 |
| 质量 | ⭐⭐⭐ Speed 还行,Lite/Tiny 质量一般 |
| 速度 | ⭐⭐⭐⭐ 国内直连 |
| 需要 | ❌ 不需要 |
| 需要信用卡 | ❌ 不需要(需实名认证) |
怎么领:
- 打开 百度智能云
- 注册百度账号 + 实名认证
- 创建应用 → 获取 API Key 和 Secret Key
适合谁: 对质量要求不高的批量任务。免费不限量,跑数据清洗、文本分类这类任务很划算。
14. DeepSeek — 接近免费
| 维度 | 详情 |
|---|---|
| 模型 | DeepSeek-V3.2 、DeepSeek-R1 |
| 免费额度 | 注册送 500 万 token ;之后极便宜:缓存命中 0.2 元/百万 token |
| 质量 | ⭐⭐⭐⭐⭐ V3.2 综合能力顶级,R1 推理最强 |
| 速度 | ⭐⭐⭐⭐ |
| 需要 | ❌ 不需要 |
| 需要信用卡 | ❌ 不需要 |
怎么领:
- 打开 platform.deepseek.com
- 手机号注册,500 万 token 自动到账
- API Keys 页面创建 Key
适合谁: 需要最强推理能力( R1 )且在国内的场景。严格说不是完全免费,但 500 万 token 够用很久,之后也几乎不花钱。
三、总结对比表
完全免费平台(长期可用)
| 平台 | 模型 | 日额度 | 速度 | 质量 | |
|---|---|---|---|---|---|
| Cerebras | Llama 70B/Qwen 235B | 100 万 tok | ⚡极快 | ⭐⭐⭐⭐ | 需要 |
| Groq | Llama 70B/Scout | ~14K 次 | ⚡极快 | ⭐⭐⭐⭐ | 需要 |
| SambaNova | Llama 405B | 200K tok | 快 | ⭐⭐⭐⭐⭐ | 需要 |
| Gemini | 2.5 Pro/Flash | 100-1000 次 | 慢 | ⭐⭐⭐⭐⭐ | 需要 |
| Mistral | Large/Codestral | 10 亿 tok/月 | 慢(2RPM) | ⭐⭐⭐⭐ | 需要 |
| 智谱 | GLM-4-Flash | 不限量 | 快 | ⭐⭐⭐⭐ | 不需要 |
| 百度 | ERNIE Speed/Lite | 不限量 | 快 | ⭐⭐⭐ | 不需要 |
| 硅基流动 | Qwen 7B | 永久免费 | 快 | ⭐⭐⭐ | 不需要 |
注册送额度平台
| 平台 | 赠送额度 | 用完后价格 |
|---|---|---|
| Kiro | 500 credits (含 Claude Sonnet ) | $19/月 |
| 硅基流动 | 14 元( 2000 万 token ) | 按量付费 |
| DeepSeek | 500 万 token | 极便宜(百万 token ≈ 1 元) |
| 智谱 | 18 元 + 实名送 400 万 token | GLM-4-Flash 永久免费 |
| Fireworks | $1 credits | 按量付费 |
四、领完了怎么用?
方法一:直接用平台的 API
所有上面的平台都兼容 OpenAI SDK 格式(或有自己的 SDK ),以 Python 为例:
from openai import OpenAI
# === Groq ===
client = OpenAI(
base_url="https://api.groq.com/openai/v1",
api_key="你的 groq key"
)
# === Cerebras ===
client = OpenAI(
base_url="https://api.cerebras.ai/v1",
api_key="你的 cerebras key"
)
# === 硅基流动 ===
client = OpenAI(
base_url="https://api.siliconflow.cn/v1",
api_key="你的 siliconflow key"
)
# 调用方式完全一样
response = client.chat.completions.create(
model="llama-3.3-70b", # 换成对应平台的模型名
messages=[{"role": "user", "content": "你好"}]
)
方法二:在 Cursor / VS Code 里用
Cursor Settings → Models → 添加自定义模型:
Base URL: https://api.groq.com/openai/v1
API Key: 你的 Key
Model: llama-3.3-70b-versatile
方法三:在 OpenClaw / Claude Code 里用
# 对接任意平台
export ANTHROPIC_BASE_URL=http://localhost:18765
export ANTHROPIC_API_KEY=unused
方法四:多平台额度叠加
一个平台的额度总有用完的时候。但如果你同时注册了 Groq + Cerebras + SambaNova + Gemini ,一天的免费额度加起来超过 130 万 tokens。
手动切换太麻烦?可以用本地聚合工具把多个 API 合并成一个端点:
"fast-group" = Groq → Cerebras → SambaNova → Gemini
一个用完自动切下一个。比如 OpenRelay 就是做这个的,聚合 29 个 Provider ,一行命令安装:
curl -L -o openrelay https://github.com/romgX/openrelay/releases/latest/download/openrelay-macos-arm64
chmod +x openrelay && ./openrelay
五、我的推荐组合
| 你的需求 | 推荐组合 |
|---|---|
| 日常编程(国内) | 硅基流动 + 智谱 GLM-4-Flash |
| 日常编程(国外) | Groq + Kiro ( Claude Sonnet ) |
| 重度编程 | Cerebras ( 100 万/天) + Mistral Codestral |
| 复杂推理 | SambaNova 405B + DeepSeek R1 |
| 超长文档 | Gemini 2.5 Pro ( 100 万上下文) |
| 全都要 | 全注册一遍 → 用聚合工具合并 |