Day0级支持摩尔线程火速支持通义千问QwQ-32B开源模型

来源:摩尔线程 #摩尔线程# #阿里云# #夸娥工场#
1364

3月6日,阿里云团队正式开源全新推理模型——通义千问QwQ-32B。摩尔线程在该模型发布后2小时内,迅速且高效完成了对千问QwQ-32B的支持。基于大语言模型高速推理框架vLLM以及MT Transformer推理引擎部署的QwQ-32B,在实际运行中展现出了卓越的推理性能与稳定性,充分印证了MUSA架构和全功能GPU在生态兼容与快速支持方面的强大优势。

图注:摩尔线程模型广场“夸娥工场”体验界面

摩尔线程将这一成果开放上线至模型广场“夸娥工场”。夸娥工场是摩尔线程倾力打造的模型展示中心,旨在为用户提供基于摩尔线程夸娥(KUAE)智算集群支持的模型能力体验。用户通过访问夸娥工场或点击“阅读原文”,即可体验QwQ-32B强大的推理模型性能与创新技术。

▼ 夸娥工场体验地址:

https://playground.mthreads.com

▼ QwQ-32B体验地址:

https://playground.mthreads.com:12019

千问QwQ-32B是阿里探索推理模型的最新成果。在一系列权威基准测试中,千问QwQ-32B 模型表现异常出色,几乎完全超越了OpenAI-o1-mini,比肩最强开源推理模型DeepSeek-R1。尽管该模型仅包含32B参数,但通过大规模强化学习训练,其在数学、编程及通用能力等领域实现了显著突破,展现了卓越的智能化水平。

图注:官方发布的benchmark测试对比图

从官方发布的benchmark测试对比图中可以清晰地看到,QwQ-32B在各项测试中成绩显著高于OpenAI-o1-mini及Deepseek的各个蒸馏版本。在LiveBench与BFCL测试中甚至击败了满血版的Deepseek-R1-671B。

从DeepSeek一系列模型的问世,到阿里云通义千问QwQ-32B的发布,这些开源大模型降低了开发门槛,激发了开源社区创新活力,极大地推动了AI技术的普及与发展。它们用实打实的表现证明,开源大模型凭借其强大的性能和灵活性,正在突破传统技术局限,成为不可阻挡的发展趋势。

摩尔线程积极响应开源社区的号召,旨在赋能更多开发者基于国产全功能GPU进行AI应用创新。摩尔线程仅用一周时间就火速支持了DeepSeek开源周“全家桶”,对千问QwQ-32B更实现了Day0级支持,充分验证了摩尔线程先进MUSA架构和全功能GPU的技术成熟度。

我们诚挚欢迎广大开发者与用户来摩尔线程夸娥工场进行体验。与此同时,开发者可以在GitHub摩尔线程账号或者开发者社区了解更多:

▼ 摩尔线程GitHub开源社区:

https://github.com/MooreThreads

▼ 摩尔线程开发者社区:

https://developer.mthreads.com

摩尔线程始终致力于推动开源生态的发展,通过技术开放与生态共建,加速国产全功能GPU在AI计算领域的规模化应用,为更多用户提供更智能、高效的解决方案。

▼ 关于摩尔线程

摩尔线程成立于2020年10月,以全功能GPU为核心,致力于向全球提供加速计算的基础设施和一站式解决方案,为各行各业的数智化转型提供强大的AI计算支持。

我们的目标是成为具备国际竞争力的GPU领军企业,为融合人工智能和数字孪生的数智世界打造先进的加速计算平台。我们的愿景是为美好世界加速。

推荐阅读

责编: 集小微
来源:摩尔线程 #摩尔线程# #阿里云# #夸娥工场#
THE END
关闭
加载

PDF 加载中...