logologo
售前咨询
快手万擎
开始使用
模型介绍
产品计费
API说明
控制台介绍
场景示例
相关协议
文档中心
模型介绍模型列表

模型列表


万擎提供丰富多样的模型选择,集成了多种模型供您使用。您可通过模型列表了解模型相关介绍,依据教程或者API说明,便捷地将模型服务整合到自身业务当中。

模型名称

模型类型

模型简介

模型能力

上下文长度

最大输入Token

最大输出Token

模型默认限流

KAT-Coder

文本生成

KAT-Coder 是 KAT 系列中的最强模型,具备专家级的编程能力,能够高效完成功能开发、缺陷分析、单测生成等任务。

Function Call

256K

256K

32K

RPM:20

TPM:2000000

DeepSeek V3.1

文本生成

深度思考

DeepSeek-V3.1 采用混合推理架构,可同时支持思考模式与非思考模式,用户可通过“深度思考”按钮,实现思考模式与非思考模式的自由切换。相比 DeepSeek-R1-0528,DeepSeek-V3.1-Think 显著提升了思考效率,能够在更短时间内提供高质量答案。此外,通过 Post-Training 优化,模型在工具使用与智能体任务中的表现大幅增强。

深度思考

128K

96K

64K

RPM:60

TPM:100000

DeepSeek R1

文本生成

深度思考

DeepSeek-R1 是由深度求索推出的推理大模型。DeepSeek-R1 在后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下,极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。

深度思考

Function Call

128K

96K

16K

RPM:5000

TPM:10000000

Kimi-K2-Instruct

文本生成

Kimi-K2是一款先进的混合专家(MoE)语言模型,拥有320亿个激活参数和1万亿个总参数。Kimi K2采用Muon优化器进行训练,在前沿知识、推理和编码任务中表现出色,同时针对代理能力进行了精心优化。

Function Call

128K

96K

8K

RPM:60

TPM 100000

DeepSeek V3

文本生成

DeepSeek-V3 由 DeepSeek 开源,具备高质量预训练、可扩展的 MoE 架构(Mixture-of-Experts)、以及完整的推理和部署工具链。适合在企业、科研与开源社区中广泛应用。

-

64K

56K

8K

RPM:5000

TPM:10000000

Qwen2.5-7B-Instruct

文本生成

Qwen2.5-7B-Instruct是通义千问团队于 2024 年发布的一款开源大语言模型,属于 Qwen2.5 系列,具有约 70 亿参数。

Function Call

128K

126K

8K

RPM:5000

TPM:5000000

Qwen3-8B

文本生成

深度思考

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力达到同规模业界SOTA水平、通用能力显著超过Qwen2.5-7B。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

8K

RPM:5000

TPM:5000000

Qwen3-32B

文本生成

深度思考

实现思考模式和非思考模式的有效融合,可在对话中切换模式。推理能力显著超过QwQ、通用能力显著超过Qwen2.5-32B-Instruct,达到同规模业界SOTA水平。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

16K

RPM:5000

TPM:10000000

Qwen3-30B-A3B

文本生成

一个拥有约 300 亿总参数和 30 亿激活参数的小型 MoE 模型。

深度思考

Function Call

128K

126K(非思考)

96K(思考)

16K

RPM:5000

TPM:5000000

上一篇:“快手万擎千万Tokens免费体验”活动规则详情页下一篇:免费推理额度
该篇文档内容是否对您有帮助?
有帮助没帮助