随着生成式 AI 进入新阶段,超大模型虽然强悍,却也伴随着高昂的资源成本与部署难度。腾讯混元最新释出的开源大型语言模型 Hunyuan-A13B,则走出了一条轻量级、高效能的新路线:虽然拥有总计 800 亿参数,但每次推理仅启用 130 亿参数,透过「Mixture-of-Experts(MoE)」架构,大幅压缩推理成本,却又不牺牲语言理解与推理能力。打破效能与资源瓶颈:Hunyuan-A13B 的技术底层解析Hunyuan-A13B 采用稀疏 MoE 架构,共拥有 64 个专家模块与一个共享专家,每次推理时仅选用其中 8 个专家活化,搭配 SwiGLU 激活函数与 GQA(Grouped Query Attention)技术,能有效提升记忆体使用效率与推理吞吐量。此外,其预训练资料量高达 20 兆 tokens,当中包含 2500 亿来自 STEM 领域的高品质资料,强化模型在数学、科学与逻辑推理上的表现。整体训练历经三大阶段:基础预训练、快速退火训练与长上下文扩展训练,最终支援长达 256K tokens 的上下文处理能力。推理两种模式任选:快速 vs. 深度思考自由切换Hunyuan-A13B 特别引入双模式推理机制(Dual-mode Chain-of-Thought),根据任务复杂度自动切换「快思」与「慢思」模式。快思适用于日常简单查询,强调低延迟与高效率;慢思则会启动更长的 Chain-of-Thought 推理路径,处理多步逻辑与复杂推演问题,平衡准确性与资源使用。评测成绩亮眼在多项公认基准测试中,Hunyuan-A13B 的表现相当出色。它在数学推理(如 AIME 2024、MATH)中勇夺榜首,在逻辑推理(如 BBH、ZebraLogic)也名列前茅。即便在较考验模型深度的长文本测试如 LongBench-v2 和 RULER 中,Hunyuan-A13B 也展现了惊人的上下文保留与逻辑整合能力,击败了参数远大于它的 Qwen3-A22B 与 DeepSeek-R1。面对开放环境挑战,工具调用能力全面升级除了语言与推理能力外,Hunyuan-A13B 也大幅提升了 Agent 能力。在 BFCL v3、ComplexFuncBench 等针对工具调用、规划与多轮对话的测试中,它的表现不仅优于 Qwen3-A22B,更在 C3-Bench 测试中名列第一,展现其适应复杂任务流程的强大实力。推理吞吐量爆表,部署效率值得关注根据报告实测,Hunyuan-A13B 在推理效率上也同样惊艳。搭配现有推理框架如 vLLM、TensorRT-LLM 等,在 32 批次、14K tokens 输出长度下,可达近 2000 tokens/s 的吞吐量。在使用 INT8、FP8 等量化精度情况下,亦能保持效能,对于企业部署至关重要。高效能与高性价比兼得,开源模型迎来新选择腾讯透过 Hunyuan-A13B 为开源语言模型界树立新典范。该模型不仅突破了「小模型难敌大模型」的刻板印象,更提供弹性推理与多任务适应能力,成为开源 LLM 领域的新旗舰。对于资源有限但仍追求高效 AI 解决方案的开发者与企业来说,Hunyuan-A13B 无疑是一个值得关注的强力新选择。这篇文章 腾讯混元再推开源 AI 大招!Hunyuan-A13B 模型亮相,13B 参数挑战 80B 巨兽 最早出现于 链新闻 ABMedia。
腾讯混元再推开源 AI 大招!Hunyuan-A13B 模型亮相,13B 参数挑战 80B 巨兽
随着生成式 AI 进入新阶段,超大模型虽然强悍,却也伴随着高昂的资源成本与部署难度。腾讯混元最新释出的开源大型语言模型 Hunyuan-A13B,则走出了一条轻量级、高效能的新路线:虽然拥有总计 800 亿参数,但每次推理仅启用 130 亿参数,透过「Mixture-of-Experts(MoE)」架构,大幅压缩推理成本,却又不牺牲语言理解与推理能力。
打破效能与资源瓶颈:Hunyuan-A13B 的技术底层解析
Hunyuan-A13B 采用稀疏 MoE 架构,共拥有 64 个专家模块与一个共享专家,每次推理时仅选用其中 8 个专家活化,搭配 SwiGLU 激活函数与 GQA(Grouped Query Attention)技术,能有效提升记忆体使用效率与推理吞吐量。
此外,其预训练资料量高达 20 兆 tokens,当中包含 2500 亿来自 STEM 领域的高品质资料,强化模型在数学、科学与逻辑推理上的表现。整体训练历经三大阶段:基础预训练、快速退火训练与长上下文扩展训练,最终支援长达 256K tokens 的上下文处理能力。
推理两种模式任选:快速 vs. 深度思考自由切换
Hunyuan-A13B 特别引入双模式推理机制(Dual-mode Chain-of-Thought),根据任务复杂度自动切换「快思」与「慢思」模式。快思适用于日常简单查询,强调低延迟与高效率;慢思则会启动更长的 Chain-of-Thought 推理路径,处理多步逻辑与复杂推演问题,平衡准确性与资源使用。
评测成绩亮眼
在多项公认基准测试中,Hunyuan-A13B 的表现相当出色。它在数学推理(如 AIME 2024、MATH)中勇夺榜首,在逻辑推理(如 BBH、ZebraLogic)也名列前茅。即便在较考验模型深度的长文本测试如 LongBench-v2 和 RULER 中,Hunyuan-A13B 也展现了惊人的上下文保留与逻辑整合能力,击败了参数远大于它的 Qwen3-A22B 与 DeepSeek-R1。
面对开放环境挑战,工具调用能力全面升级
除了语言与推理能力外,Hunyuan-A13B 也大幅提升了 Agent 能力。在 BFCL v3、ComplexFuncBench 等针对工具调用、规划与多轮对话的测试中,它的表现不仅优于 Qwen3-A22B,更在 C3-Bench 测试中名列第一,展现其适应复杂任务流程的强大实力。
推理吞吐量爆表,部署效率值得关注
根据报告实测,Hunyuan-A13B 在推理效率上也同样惊艳。搭配现有推理框架如 vLLM、TensorRT-LLM 等,在 32 批次、14K tokens 输出长度下,可达近 2000 tokens/s 的吞吐量。在使用 INT8、FP8 等量化精度情况下,亦能保持效能,对于企业部署至关重要。
高效能与高性价比兼得,开源模型迎来新选择
腾讯透过 Hunyuan-A13B 为开源语言模型界树立新典范。该模型不仅突破了「小模型难敌大模型」的刻板印象,更提供弹性推理与多任务适应能力,成为开源 LLM 领域的新旗舰。对于资源有限但仍追求高效 AI 解决方案的开发者与企业来说,Hunyuan-A13B 无疑是一个值得关注的强力新选择。
这篇文章 腾讯混元再推开源 AI 大招!Hunyuan-A13B 模型亮相,13B 参数挑战 80B 巨兽 最早出现于 链新闻 ABMedia。