开源社区

阿里发布Qwen3-Coder:4800亿参数实现开源代码模型新SOTA

阿里发布Qwen3-Coder:4800亿参数实现开源代码模型新SOTA

  • 发布:
  • 人气: 8
  • 评论: 0

应用介绍

  )训练。通过自动扩展测试样例,他们构造了大量高质量的训练实例,成功释放了强化学习的潜力:不仅显著提升了代码执行成功率,还对其他任务带来增益。

  此前网友挖出线索,阿里团队在代码中介绍Qwen3-Coder时写道:“Qwen3-Coder-480B-A35B-Instruct是一个强大的编码专用语言模型,在代码生成、工具使用和代理任务方面表现出色。”

  阿里表示,该模型“拥有卓越的代码和代理能力”。Qwen3-Coder在代理式编码、代理式浏览器使用和代理式工具使用上成为了开源模型的SOTA,可以媲美Claude Sonnet 4。

  Qwen3-Coder也是受到了网友的大力追捧,代码库上线一小时就收获了5.1k Star。

  “Qwen Code基于Gemini Code进行二次开发,但我们进行了提示词和工具调用协议适配,使得Qwen Code可以最大程度激发Qwen3-Coder在代理式编程任务上的表现。”阿里在官网上表示。

  在只提供一句“克隆推特网页设计和UI”提示的情况下,Qwen3-Coder给出的结果还是不错的:

  相比之下,ChatGPT(免费版)给出的结果则是有些简陋,虽然文本和几个功能区域都有,但几乎没有视觉元素:

  笔者还让Qwen3-Coder做了一个简单的网页版乒乓球游戏,同样只是一句话提示:“开发一个可以在网站上运行的乒乓球游戏”。

  代码生成后直接在Artifact上无缝运行,整个过程不到20秒,效果很惊艳,直接用键盘就能控制,支持两人对战,它还自主发挥加上了获胜规则:

  而ChatGPT生成的虽然也能运行,但无论是美观还是完整性,都远不及Qwen3-Coder:

  三个月前,阿里发布了千问3(Qwen3)系列模型,包括两款混合专家MoE模型、六款密集模型和若干模型变种,例如后训练、FP8版本等等。

  其中的旗舰模型Qwen3-235B-A22B,总参数量高达2,350亿(235B),其中激活参数为220亿(A22B),分布在94个深层网络层中。

  另外一个MoE模型Qwen3-30B-A3B,尺寸较小,总参数量300亿,激活参数量30亿。

  当时,Qwen3系列引入了一种混合方法来解决问题,一个模型同时支持思考模式和非思考模式。但现在这种模式已经被取消。

  阿里在官网表示,“经过与社区沟通和深思熟虑后,我们决定停止使用混合思维模式。取而代之的是,我们将分别训练Instruct和Thinking模型,以获得最佳质量。所以我们发布了Qwen3-235B-A22B-Instruct-2507及其FP8版本,供大家使用。”

  Qwen3-2507在主流基准测试中表现优异。作为一款“没有思考能力”的开源模型,它在GPQA、AIME25和LiveCodeBench v6等测试中均超越了未开启思考模式的Claude Opus 4。

  在闭源模型各种刷榜的今天,它们难得的推动了大模型技术的普及化,为AI社区开发者和研究人员提供了强大的免费工具。更重要的是,它们的广受欢迎让中国在全球AI开源领域占据了重要一席。

  这不仅能促进AI技术的普惠发展,还能有效降低创新门槛,让更多开发者参与进来,共同构建一个更加开放和繁荣的AI生态系统。

  反过来,这些模型未来在产业应用、学术研究和人才培养等方面都将发挥不可估量的作用,进一步加速中国在AI领域的进步。

相关应用