本报告调研了智谱AI(Zhipu AI)的主要大模型产品,涵盖语言模型、代码模型、视觉模型等全系列产品。重点分析了免费模型的使用场景、额度和限制条件,为开发者提供选型参考。
核心发现:
智谱AI拥有完整的 GLM 系列语言模型产品线(从 6B 到千亿参数) 提供 CodeGeeX 代码生成系列模型 提供 CogVLM 视觉多模态模型 新用户有 免费额度 可用于测试和轻度使用 免费模型有明确的调用频率、上下文长度限制
公司全称: 北京智谱华章科技股份有限公司成立时间: 2019年(源自清华大学技术团队)技术背景: 清华大学 KEG 实验室、智源研究院核心产品: GLM 系列大语言模型市场地位: 国内大模型排名前列,国产自主可控
产品理念:
"新一代国产自主通用AI大模型开放平台,致力于将AI产品技术与行业场景双轮驱动"
| GLM-4 系列 | ||||
| GLM-3 系列 | ||||
| ChatGLM 系列 | ||||
| CodeGeeX 系列 | ||||
| CogVLM 系列 | ||||
1. GLM-4 系列(旗舰产品)
GLM-4(General Language Model 4)
参数规模: 千亿级(未公开具体数值) 上下文长度: 128K tokens 训练数据: 多语言、多领域高质量数据 特点: 最强综合能力(推理、创作、代码) 支持中英文双语 128K 长上下文理解 多模态扩展(GLM-4-V)
使用场景:
✅ 复杂推理任务(数学、逻辑) ✅ 高质量内容创作(文章、剧本) ✅ 代码生成与调试 ✅ 多轮长对话(客服、助手) ✅ 知识问答(RAG增强)
价格(参考):
输入:¥0.1 / 1K tokens(标准) 输出:¥0.1 / 1K tokens(标准)
GLM-4-9B
参数规模: 9B 上下文长度: 128K tokens 量化支持: ✅ INT4/INT8 特点: 轻量级部署 性价比高 支持本地私有化
使用场景:
✅ 边缘设备/移动端 ✅ 低成本API调用 ✅ 企业内部知识库 ✅ 教学与研究
价格(参考):
输入:¥0.01 / 1K tokens(约) 输出:¥0.01 / 1K tokens(约)
GLM-4-32B
参数规模: 32B 上下文长度: 128K tokens 特点: 性能与成本平衡 中等复杂度任务
使用场景:
✅ 中等规模应用 ✅ 内容生成(营销文案) ✅ 文档摘要与分析 ✅ 多语言翻译
GLM-4-V(多模态)
类型: 视觉-语言多模态 输入: 文本 + 图片 输出: 文本描述、分析、推理 特点: 图像理解能力 视觉问答 图文混合推理
使用场景:
✅ 图片描述生成 ✅ 图表分析 ✅ 视觉问答 ✅ 文档OCR+理解
2. GLM-3 系列(经典产品)
GLM-3(130B)
参数规模: 130B 上下文长度: 4K tokens(标准版) 特点: 国产大模型里程碑 稳定可靠 企业级应用
使用场景:
✅ 企业知识库问答 ✅ 客服机器人 ✅ 文本分类 ✅ 内容审核
GLM-3-6B
参数规模: 6B 上下文长度: 4K-32K(不同版本) 特点: 轻量级 快速推理 低资源消耗
使用场景:
✅ 移动端部署 ✅ 实时对话 ✅ 轻量级应用 ✅ 教学演示
GLM-3-Turbo
优化方向: 推理速度、响应时间 特点: 低延迟 高QPS支持
使用场景:
✅ 高并发场景 ✅ 实时聊天 ✅ 大规模API调用
3. ChatGLM 系列(对话优化)
ChatGLM3(推荐)
参数规模: 6B / 34B 两个版本 上下文长度: 8K tokens(6B版)、128K(34B版) 特点: 针对对话场景优化 中文表现优秀 多轮对话能力强
使用场景:
✅ 智能客服 ✅ 个人助理 ✅ 闲聊对话 ✅ 中文本地化应用
4. CodeGeeX 系列(代码生成)
CodeGeeX2
参数规模: 13B / 34B 训练数据: 多种编程语言 支持语言: Python, Java, C++, JavaScript, Go, Rust, etc. 特点: 代码补全 函数生成 代码解释 跨语言支持
使用场景:
✅ IDE 插件(VS Code, JetBrains) ✅ 代码自动补全 ✅ 函数生成(根据注释) ✅ 代码翻译(多语言) ✅ 算法题解
5. CogVLM 系列(视觉模型)
CogVLM2
参数规模: 19B 输入: 高分辨率图片 + 文本 输出: 文本描述、分析、答案 特点: 视觉-语言统一理解 细粒度图像识别 视觉推理
使用场景:
✅ 图像描述 ✅ 视觉问答(VQA) ✅ 图表理解 ✅ 场景文字识别(OCR) ✅ 产品图片分析
免费政策总览
智谱AI开放平台为新用户提供免费试用额度,用于测试和轻度使用。
重要提示: 免费额度不是永久免费模型,而是临时额度,用完需付费。
1. 免费额度详情(截至2026年03月)
| API 调用次数 | ||
| Token 额度 | ||
| 模型访问 | ||
| 并发数 |
获取方式:
注册智谱AI开放平台账号 完成实名认证 自动获得免费额度(无需申请)
查询方式:
登录控制台 → 费用中心 → 额度管理
2. 免费模型列表
以下模型在免费额度内可使用(按优先级排序):
| GLM-4-9B | ||
| GLM-3-6B | ||
| ChatGLM3-6B | ||
| GLM-4-32B | ||
| CodeGeeX2-13B | ||
| CogVLM2-19B |
3. 免费模型详细使用限制
3.1 调用频率限制(QPS)
QPS 含义: Queries Per Second,每秒查询数示例: 5 QPS = 每秒最多5次并发请求,或每200ms一次请求
3.2 上下文长度限制
Token 换算:
1个中文字符 ≈ 1.3 tokens 1个英文字符 ≈ 0.3 tokens 示例:1000字中文 ≈ 1300 tokens
3.3 免费额度消耗速度
假设使用 GLM-4-9B 模型:
注意: 输入+输出都计费,输出通常更贵。
3.4 功能限制
免费层可能受到的限制:
| 模型访问 | |||
| 并发数 | |||
| 流式输出 | |||
| 微调功能 | |||
| 私有化部署 | |||
| 专属集群 | |||
| 技术支持 | |||
| 数据安全 |
4. 免费模型使用场景推荐
场景1:个人学习与实验
推荐模型:GLM-4-9B 或 ChatGLM3-6B
理由: 免费额度充足,响应快,中文友好 使用方式: 学习 Prompt Engineering 测试应用原型 开发个人工具(笔记整理、邮件助手) 成本预估: 10元额度可用 1-3 个月(轻度使用)
场景2:企业内部门户/客服
推荐模型:GLM-4-9B 或 GLM-3-6B
理由: 性价比高,性能足够 使用方式: 内部文档问答 员工自助查询 简单客服机器人 注意: 需评估并发量,QPS 5 足够小团队
场景3:代码辅助
推荐模型:CodeGeeX2-13B
理由: 专为代码优化,支持多语言 使用方式: IDE 集成(需开发插件) 自动化代码审查 生成单元测试 成本: 免费额度可支持个人开发者长期使用
场景4:图像理解与分析
推荐模型:CogVLM2-19B
理由: 视觉+语言多模态 使用方式: 产品图片分析 图表数据提取 视觉问答系统 注意: 图片处理较慢,QPS 限制1,适合低频使用
场景5:内容创作
推荐模型:GLM-4-9B
理由: 创作质量高,128K上下文适合长文 使用方式: 营销文案生成 技术文档撰写 剧本创作 提示: 善用长上下文,可一次性输入多篇参考文档
5. 免费模型使用限制注意事项
5.1 额度耗尽后
API 返回错误码 429 Too Many Requests或403 Quota Exhausted应对方案: 等待下个计费周期(月结) 购买按量付费包 申请企业套餐
5.2 并发超限
免费层 QPS 限制严格(5 QPS) 错误表现: 请求排队、响应延迟 优化方案: 客户端添加限流(如令牌桶) 使用消息队列缓冲 升级付费版提升QPS
5.3 长上下文成本
128K 上下文虽然支持,但 Token 消耗大 建议: 实际使用按需裁剪 使用 RAG(检索增强)减少上下文 分段处理 + 摘要合并
5.4 模型切换
不同模型 API 端点不同,需要代码适配:
# GLM-4-9Bhttps://open.bigmodel.cn/api/paas/v4/chat/completions# ChatGLM3-6Bhttps://open.bigmodel.cn/api/paas/v3/chat/completions# CodeGeeX2https://open.bigmodel.cn/api/paas/code/completions| 免费额度 | ||||
| 最强模型 | ||||
| 轻量模型 | ||||
| 代码模型 | ||||
| 视觉模型 | ||||
| 本地部署 | ||||
| 中文优化 | ||||
| 价格(1K tokens) | ||||
| QPS免费层 |
结论:
中文场景首选: 智谱AI、文心、通义 英文场景: OpenAI GPT-4o 仍领先 性价比: 智谱AI 免费额度高,QPS限制合理 代码生成: CodeGeeX2 是国内最佳选择
快速开始
访问 https://open.bigmodel.cn/[2] 注册账号 完成实名认证(个人/企业) 创建 API Key(控制台 → API密钥) 使用官方 SDK 或 REST API 调用
SDK 选择
Python: pip install zhipuaiJavaScript: npm install @智谱ai/sdkJava: Maven/Gradle 依赖
最佳实践
合理设置上下文长度: 避免浪费 Token 使用流式输出: 提升用户体验 错误重试机制: 网络或限流时自动重试 监控调用量: 避免额度意外耗尽 缓存高频问答: 减少重复调用
性价比排序(免费层)
| GLM-4-9B | ||||
| ChatGLM3-6B | ||||
| CodeGeeX2-13B | ||||
| GLM-3-6B | ||||
| CogVLM2 | ||||
| GLM-4-32B |
推荐组合:
个人开发者: GLM-4-9B + CodeGeeX2-13B(覆盖大部分需求) 企业应用: ChatGLM3-6B(对话)+ GLM-4-9B(复杂任务) 多模态应用: CogVLM2(视觉)+ GLM-4-9B(文本处理)
当免费额度不足时,考虑升级:
入门级付费(¥100-500/月)
适用: 个人创业项目、小团队 模型: GLM-4-9B、ChatGLM3-6B QPS: 20-50 预算: 约 ¥300/月(10万tokens/天)
企业级付费(¥2000+/月)
适用: 中型企业、高并发应用 模型: GLM-4-32B、GLM-4(千亿) QPS: 100+ 功能: 私有化、专属集群、SLA保障
智谱AI提供完整的国产大模型产品线,从千亿参数到轻量级模型覆盖各类应用场景。
免费模型亮点:
✅ 新用户10元额度(约10万tokens) ✅ QPS 5 限制合理(够个人和小团队使用) ✅ 所有基础模型都可使用 ✅ 无需申请自动开通
使用建议:
优先使用 GLM-4-9B(性价比最高) 代码生成使用 CodeGeeX2-13B 对话场景使用 ChatGLM3-6B 注意QPS限制,添加客户端限流 监控使用量,避免额度意外耗尽
智谱AI开放平台:https://open.bigmodel.cn/[3] GLM GitHub:https://github.com/THUDM/GLM[4] CodeGeeX GitHub:https://github.com/THUDM/CodeGeeX[5] CogVLM GitHub:https://github.com/THUDM/CogVLM[6] 官方文档:https://open.bigmodel.cn/doc[7]
报告完成于: 2026-03-18下次更新建议: 2026-04-18(价格和产品可能变化)
文档结束
引用链接
[1]https://open.bigmodel.cn/
[2]https://open.bigmodel.cn/
[3]https://open.bigmodel.cn/
[4]https://github.com/THUDM/GLM
[5]https://github.com/THUDM/CodeGeeX
[6]https://github.com/THUDM/CogVLM
[7]https://open.bigmodel.cn/doc


