| 模型名称 | API标识(Model) | 模型类型 | 适用场景 | 上下文/最大输出 | 核心特性 |
| 千问 3.5 (397B) | Qwen3.5-397B
| 多模态/通用对话 | 复杂多模态任务、高级智能体交互、高难度多模态分析 | 256K / 256K | 原生多模态 MoE 模型(总参数 397B,激活 17B)。原生支持图文视频混合输入,在视觉理解与智能体任务上表现优异。 |
| 千问 3 (4B) | Qwen3-4B | 轻量对话 | 快速对话生成、端侧部署、轻量级基础问答 | 40K / 40K | 4B 轻量级模型,资源占用低且响应极快。支持“思考模式”(深度推理)与“非思考模式”(快速响应)的无缝切换。 |
| 千问 3 (235B) | qwen-plus | 通用对话 | 长文本分析、高并发企业级应用、大规模文档问答 | 128K / 128K | 最高支持 1M 上下文(当前接口配置 128K),在并发处理稳定性与调用成本之间有良好平衡。 |
| DeepSeek V3 | deepseek-v3 | 通用对话 | 复杂逻辑推理、代码编写、高频日常文本生成 | 160K / 160K | 基于 MoE 架构。具备顶级的代码、数学及逻辑推理能力。 |
| 华工心理健康大模型 | Soulchat | 垂直领域 | 心理健康疏导、情绪陪伴、共情对话 | 128K / 128K | 华南理工大学自研垂直模型。基于心理学文献与咨询语料微调,具备专业的情绪感知与共情回复能力。 |
| BGE-M3 | bge-m3 | 向量检索 | 多语言常规检索、混合检索(稠密+稀疏)、中短篇幅知识库构建 | 8K / 无文本生成 | 智源开源向量模型。支持 100+ 种语言,最大上下文 8K,提供稠密、稀疏与多向量三合一的混合检索能力。 |
| GTE 千问2 (7B) | gte-qwen2-7b | 向量检索 | 超长文档向量化、复杂深层语义检索、长上下文 RAG 系统 | 128K / 无文本生成 | 基于 Qwen2-7B 大语言模型架构的向量模型。支持超长上下文,擅长长文本的深层语义理解和复杂向量化提取。 |